News Zen-Hardware in zukünftiger Sony Playstation?

Onkel_Dithmeyer

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.04.2008
Beiträge
12.949
Renomée
4.045
Standort
Zlavti
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
  • BOINC Pentathlon 2024
Die aktuellen Konsolen Playstation 4 (Pro) und Xbox One (X) nutzen Chips von AMD. Die zugrundeliegende Prozessorarchitektur geht auf die Cats-Architektur Jaguar, Puma etc. zurück. Man hatte sich damals gegen die prinzipiell leistungsfähigere aber auch ineffizientere Bulldozer-Architektur entschieden. Mit den Zen-Prozessorkernen hat AMD vergangenes Jahr nicht nur effizientere sondern auch weitaus leistungsstärkere Prozessoren auf den Markt gebracht. Es ist daher nicht weit hergeholt, dass Sony und Microsoft Ihre kommenden Spielkonsolen auf dieser neuen Architektur aufbauen wollen. Einen ersten handfesten Hinweis haben die Kollegen von Phoronix nun gefunden.
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Bei einem so preissensitiven Segment glaube ich weniger an HBM2, dafür ist der einfach zu teuer.
Ich tippe auf 4-6 Zen Kerne und 16 GB GDDR5.
 
Also dass damals Jaguar genommen wurde, dafür gibt es exakt einen Grund:
Man hatte nix anderes!
Bulldozer war noch nicht fertig, K10 zu alt, also bleibt nix anderes.

Dass in den neuen Konsolen Zen zum Einsatz kommen wird, sollte so Sicher, wie das Amen in der Kirche sein. Ev. wird es sogar Zen+.
8 Cores kann man als gesichert ansehen, allein wg. der Abwärtskompatibilität zur Playstation 4 ist es alternativlos und muss so sein.
Und in 7nm wird der 8 Core auch nicht so groß sein, zumal man den ganzen Ballast wie PCIe, Infinity Fabric und so weiter gar nicht braucht...

Ein respektierter Programmierer meinte im 3DCenter, dass alles unter 32GiB RAM lächerlich und bekloppt wäre. Gut, da hat er nicht ganz unrecht...

Bei der GPU bleibt leider auch nur VEGA, da Navi noch nicht so weit ist...
HBM2 ist die Frage. Wäre durchaus möglich, aber da steht wohl der Preis im Wege....
Und da würde ich jetzt einen vollen VEGA 10 in 7nm für nicht völlig verkehrt halten...
Insbesondere wenn wir wieder von Taktraten um 1000MHz (oder weniger) ausgehen, sollte das ganze auch nicht allzu schlecht sein.
Aber da Navi auch um die Zeit kommen soll, würde ich die jetzt nicht völlig ausschließen wollen.

Was wirklich interessant ist, ist ob Sony diesesmal eine gescheite I/O Anbindung macht und nicht so einen Bullshit wie bei der PS4, wo die die Festplatte via USB angebunden haben.
Das BD Laufwerk war wohl S-ATA...
Und die APU ist nur ein "Coprozessor", der an 'nen Marvell ARM Chip dran geklatscht wurde *chatt*
Aber da wir von Sony sprechen, werden sie wohl wieder sowas komisches machen, da sich das ja bewährt hat...
 
Zuletzt bearbeitet:
Viel Spekulatius da draußen. Ich gehe von 8 logischen Prozessoren aus wegen Abwärtskomptaibiliät und weil sich mehr oft nicht rechnet. 8 echte Cores plus HT wären zwar wünschenswert, aber Power Budget und Die Size sprechen mMn dagegen - auch niedrig getaktet. GDDR6 ist auch wahrscheinlicher als HBM2. Verfügbarkeit und Preis sind ausschlaggebend. Deshalb wird sicherlich auch nur 16 GB RAM verbaut.
Der GPU-Teil wird dagegen spannend. VEGA56 Niveau wird es schon sein müssen, dann wird es mit der Wärmeentwicklung schwierig. 7nm halte ich für gegeben. Genauso wie bei PS4 halte ich reine VEGA IP für unwahrscheinlich. Da wird es etwas custom geben. vlt. etwas für VR?
Generell dürfte PS5 eher Evolution denn revolution sein. Ein Schritt etwas größer als PS4 Pro zur PS4, aber nicht so weit weg von der XBOXOne, dass MS gleich zittern müsste.
 
Zuletzt bearbeitet:
8 echte Cores plus HT wären zwar wünschenswert, aber Power Budget und Die Size sprechen mMn dagegen - auch niedrig getaktet.
quatsch mit Sauce.
1. ist SMT im Design verankert. Man kann es zwar deaktivieren, spart aber null dadurch.
2. Mit 2,5GHz oder so wird es sicher SMT geben. Nur halt mit eine Abwärtskompatiblen Modus, bei dem das abgeschaltet

Bedenke, dass:
a) wir von 7nm sprechen werden!
b) die aktuellen Prozessoren auch sehr niedrig getaktet sind. Wir reden hier von 1,6GHz von der Originalen PS4 und ~2GHz bei der PRO.

VEGA56 Niveau wird es schon sein müssen, dann wird es mit der Wärmeentwicklung schwierig.
Schau dir doch einfach mal an, wie VEGA mit niedrigem Takt und Spannung skaliert, wie weit du die runter bekommen kannst!
Und wenn wir von niedrigem Takt von 1GHZ max oder so ausgehen, schaut es auch wieder nicht soo schlecht aus.

Das Problem ist, dass AMD die VEGA einfach über den Sweet Spot betreibt. Mit 100-200MHz weniger und wir reden auch um 50-100W weniger.

7nm halte ich für gegeben.
Und genau diesen Punkt scheinst du zu vergessen ;-)
Denn mit 7nm kannst du die Spannung senken, deutlich weniger Verbrauch. Aber das hast ja schon mit 12nm (waren doch 40% weniger Verbrauch bei gleicher Leistung).
Also das passt durchaus, wenn man das auf Effizienz trimmt...

Und die AMD Designs sind auch nicht soo schlecht, nur halt weniger auf Takt optimiert und man versucht trotzdem mit der Brechstange das letzte rauszuholen...
 
als Basis

7nm eröffnen weite Möglichkeiten und selbst wenn es Vega wird - im "Kleinen" hat die ja weit besser abgeschnitten, denn als GF1080-Rivale
Die sind für den Desktop ja auf 2019 avisiert, für die PS5 geistert hingegen die letzten Tage 2021 durch die Gegend.... und wenn es 2022 wird, wäre das auch keine grosse Überraschung..

Irgendwas in die Richtung 4Computecores 14-16Grafikcluster und bis dahin ist ja denkbar, das ganze mit GDDR6 zu bestücken - die Serienproduktion läuft ja an

In der Konstellation gäbe es ja schon mal reichlich Abstand zu den Vorgängern, bei angenehmer Abwärtskompatibilität 8)
Allerdings erwarte ich da durchaus ein Custommodul

Mmoe
 
Bei einem so preissensitiven Segment glaube ich weniger an HBM2, dafür ist der einfach zu teuer.
aber nur wegen der geringen Stückzahlen. Längerfristig wird HBM aber sicherlich mehr benutzt werden, dann geht auch der Preis runter. Ist sowieso Verhandlungssache. Aber rein technisch wäre es sinnvoll, spart ja doch so einige Watt (ggü. anderen RAM-Lösungen mit gleichwertiger Performance). In der Konsole dürfte (je nachdem wann die kommt) möglicherweise gleich HBM3 landen, das soll billiger sein und mehr Kapazität bieten.
 
Ich gehe sogar davon aus das SMT deaktiviert bleibt.
Zum einen reden wr über eine Konsole wo man von einer guten Optimierung ausgehen kann und entsprechend wenig Spielraum für den zweiten Thread übrig bleiben würde und zum anderen umgeht man so von Anfang an die einher gehenden Probleme mit der Priorisierung der beiden Threads. Wir reden hier schließlich nicht von grottig optimerter Desktop Software bei der man nur beten kann das sie auch nur die Hälfte der Möglichkeiten der Hardware nutzt.

Des weiteren bleibe ich dabei das ich HBM aufgrund des Preises für unwarscheinlich halte.
Der Aufwand ist so oder so höher und damit dessen Ensatz zwangsläufig teurer. Solange der Platz auf dem PCB vorhanden ist, der klassische (G)DDR Speicher billiger ist und man auf eine vergleichbare Bandbreite kommt dürfte dieser vorgezogen werden.
 
Du vergisst:
Wir redenhier über Sony.
DIe haben bei der PS3 ja auch den sau teuren RDRAM XDR Speicher verbaut.

--- Update ---

guggsu:
https://www.ifixit.com/Teardown/PlayStation+3+Slim+Teardown/1121

--- Update ---

Und die 8GiB GDDR5 SDRAM waren auch nicht ohne, als die PS4 vor ~5 Jahren auf den Markt kam.
damals hatten die meisten Grafikkarten gerade mal 2-3GiB VRAM, 4 war gerade auf dem Weg...

Also Preis als Argument dagegen anführen halte ich für nicht wirklich sinnvoll, eben weil Sony hier vorgestoßen ist und etwas neues versucht hat...
Und wohl auch der Grund für die GDDR5 SDRAM Controller im Kaveri gewesen sein könnte. Nur dass Kaveri nicht rechtzeitig fertig war...
 
@Stefan Payne
Die verbauten da drin auch einen Cell Prozessor und mussten trotz des Preises die Konsole über die Spiele quersubventionieren, was bei der PS4 bereits nicht mehr der Fall war. ;)
Des weiteren verlierst du beim Thema GDDR5 einen wichtigen Punkt aus den Augen, den prinzipiellen Aufbau.
So wie die xbox 360 nutzt auch die PS3 eine getrennte CPU und GPU die jeweils ihren eigenen Speicher besitzen (wobei die PS3 wohl ursprünglich ohne extra GPU geplant war und wohl deshalb auch die Cell - XDR Kombi bekam), die PS4 nutzt hingegen eine APU bei der CPU und GPU auf den gleichen Speicher zugreifen müssen und deshalb eine entsprechende Bandbreite benötigen.
Microsoft hatte bei der xBox One zwar ursprünglich auf eine Kombi aus DDR3 Speicher gesetzt und versucht per eSRAM die nötige Bandbreite zu erlangen, setzte aber bereits bei der xBox One X ebenfalls auf GDDR5 Speicher und der eSRAM war Geschichte.

--- Update ---

Noch ein kleiner Zusatz:
Die PS4 kam erst Ende 2013 auf den Markt, die HD7970 nutzte bereits 3 GB GDDR5 Speicher und kam bereits Ende 2011 auf den Markt.
Ende 2013 war bereits die Radeon-R200-Serie auf dem Markt deren R9 290(X) bereist mit 4 GB ankam, die HD79xx erfuhr mit der R9 280(x) ihre Wiedergeburt. Mit dem Speicherausbau trödelte sich lediglich nvidia aus.
Zudem müssen sich im PC Bereich CPU und GPU nicht den Speicher teilen und der normale Arbeitsspeicher kommt bei der Rechnung nochmal oben drauf.
 
@Stefan Payne
Die verbauten da drin auch einen Cell Prozessor
...mitsamt nVidia Grafikkarte (G70 Ableger), was die Performance der Konsole einfach nur unterirdisch schlecht macht(e)...
Bin froh, mir damals die 360 und nicht die PS3 gekauft zu haben, auch wenn die PS3 für mich interessantere Spiele hätte...

So wie die xbox 360 nutzt auch die PS3 eine getrennte CPU und GPU die jeweils ihren eigenen Speicher besitzen
Nicht ganz korrekt.
Die GPU der 360 kann auf den Hauptspeicher zugreifen und das ist wohl auch so gedacht. Der EDRAM mit den TMUs ist eher ein Framebuffer. Aber vom Kern her, war die 360 schon näher an heutigen Architekturen dran.
Und wenn ichs richtig im Hirn hab, dann hängt auch der Speicher an der GPU, während die PS3 eigene Speicher für CPU und GPU besitzt.
Aber schon bei der 360 Slim hat man beides zumindest auf einen Träger integriert. Möglich, dass es gar nur ein Single Die ist...
http://soiconsortium.eu/2011/05/11/gpu-cpu-on-soi-the-xbox-360-did-it-first/

Während die PS3 immer bei zwei Chips blieb, GPU Speicher wurde aber bei der Slim und Super Slim auf den Träger integriert.
Gut möglich, dass es hier zwischen Sony und nVidia eingie Spannungen gab, da man nicht das machte, was Sony wollte...

(wobei die PS3 wohl ursprünglich ohne extra GPU geplant war und wohl deshalb auch die Cell - XDR Kombi bekam),
Ja, das sagt man.
Aber ob das wirklich der Fall ist, k/a
Ev. wurde man ja auch von der 360 überrannt und hat einfach die nächst beste GPU daneben gezimmert...
Genaueres weiß aber nur Sony intern...

die PS4 nutzt hingegen eine APU bei der CPU und GPU auf den gleichen Speicher zugreifen müssen und deshalb eine entsprechende Bandbreite benötigen.
Microsoft hatte bei der xBox One zwar ursprünglich auf eine Kombi aus DDR3 Speicher gesetzt und versucht per eSRAM die nötige Bandbreite zu erlangen, setzte aber bereits bei der xBox One X ebenfalls auf GDDR5 Speicher und der eSRAM war Geschichte.
Technisch gesehen eigentlich schon die 360 Slim ;)
Sony und MS sind dann dabei geblieben, weil sich das Design als sinnvoller/optimaler ergeben hat...
Bei der XBox One hat MS versucht an den Erfolg der 360 anzuschließen und etwas ähnliches zu machen und gehofft am Speicher sparen zu können - und ist grandios gescheitert.
Aber das war nicht der Grund für den Erfolg der PS4 sondern PReis, Kinect, Always On...



Noch ein kleiner Zusatz:
Die PS4 kam erst Ende 2013 auf den Markt, die HD7970 nutzte bereits 3 GB GDDR5 Speicher und kam bereits Ende 2011 auf den Markt.
...was ich ja oben erwähnte ;)
ich sagte ja, dass zu der Zeit die GPUs 2-3 GiB hatten und 4 auf dem Weg waren :)

Zudem müssen sich im PC Bereich CPU und GPU nicht den Speicher teilen und der normale Arbeitsspeicher kommt bei der Rechnung nochmal oben drauf.
Nein
Da du vieles, was im VRAM ist auch im Hauptspeicher haben müsstest bzw du auch noch diverse Sachen erst einmal von Disk in den Hauptspeicher und dann via PCIe an die GPU schicken müsstest.
Auf der Konsole sparst du dir diese Schritte und kopierst es einfach in den RAM, dann musst es maximal ummappen.

Kurz: UMA ist ein Vorteil. Das hat man ja auch schon bei der 360 gesehen ;)
Und deswegen ist man auch dabei geblieben.
 
Ich gehe sogar davon aus das SMT deaktiviert bleibt.

Die werden da sicherlich noch mehr wegschnitzen..... Ich gehe da sehr von einem stark angepassten Custommodul aus, womöglich sogar in einem eigenem LowPowerProzess.....


Des weiteren bleibe ich dabei das ich HBM aufgrund des Preises für unwarscheinlich halte.
Der Aufwand ist so oder so höher und damit dessen Ensatz zwangsläufig teurer. Solange der Platz auf dem PCB vorhanden ist, der klassische (G)DDR Speicher billiger ist und man auf eine vergleichbare Bandbreite kommt dürfte dieser vorgezogen werden.

Ich tippe, dass das ganze System auf GDDR6 aufsetzt, der geht ja gerade in die Massenfertigung und dürfte zum Zeitpunkt X , den P/L-Sweetspot darstellen.
Es sind ja auch die Tage, wo Konsolen bei Release mit GamerPCs konkurriren schon lange vorüber!
Stefan Payne schrieb:
quatsch mit Sauce.
1. ist SMT im Design verankert. Man kann es zwar deaktivieren, spart aber null dadurch.

Ich glaube aber, dass das Design ein gutes Stück angepasst wird.... und SMT wird womöglich nicht das einzige sein was fliegt...

Mmoe
 
Die CCX werden bestimmt nicht angepasst. Wenn dann wird SMT nur deaktiviert aber nicht in HW "rausgeschnitten"
 
Warum sollte Sony SMT generell deaktivieren?

Bei PS4-Spielen kann das OS es deaktivieren, aber man kann neuen Spielen, die für die PS5 entwickelt werden doch die Möglichkeit geben, SMT zu nutzen.

SMT aus der µArch zu entfernen wird nicht ohne echt sehr sehr viel Aufwand gehen, das machen die sicher nicht.
 
@ mmoses
Wie gesagt, SMT ist auch immer eine unnötige Problem-/Fehlerquelle denn die beiden Threads behindern sich letztendlich gegenseitig.
Siehe BOINC Pentathlon. ohne SMT lag bei mir die Berechnungszeit meines Rippers pro Asteroids Wu bei ca. 1:30h, mit SMT stieg die Berechnungszeit pro WU auf über 2 Stunden und die Schwankung pro WU fiel zudem höher aus. Keine Frage, insgesammt bekam ich mit SMT durch die doppelt so viel laufenden WUs mehr raus aber jede WU für sich wurde dadurch ausgebremst und die Leistungsverteilung war alles andere als gleichmäßig. Das mag für die Programme die den gesammten Prozessor ohnehin nicht auslasten können nicht weiter ins Gewicht fallen aber bei Software die deutlich stärker auf die Hardware optimiert wird könnte das gegenseitige Ausbremsen mMn. durchaus ein Problem werden denn die Leistungsentfaltung pro Thread ist alles andere als konstant.
 
Nein, wurde eben nich.
Man hat einfach zwei Pumas verbunden.

Daher sollte man Änderungen am CCX eher ausschließen. Das einzige, was möglich wäre, wären Verbesserungen von Zen2.
 
Würde sich aber bei den Stückzahlen rechnen... und bei Puma wurde es ja schliesslich auch gemacht ;)

Das glaube ich weniger, SMT ganz raus zu nehmen würde viel Arbeit machen aber kaum Waferfläche einsparen. Es würde vermutlich ganz einfach mehr kosten als es nützt.
Wenn dann tippe ich eher darauf dass der CCX Block von 4 auf 6 Kerne erweitert wird, stand das bei der Gerüchteküche für die nächsten Zen Generation nicht ohnehin im Raum? Das wäre dann doch ein guter Probelauf fürs erweiterte CCX Design.

Ob GDDR5 oder GDDR6 das Rennen machen wird hängt vermutlich nicht zuletzt vom Preis und dessen Verfügbarkeit ab. Gut möglich das es bereits GDDR6 werden könnte aber angesichts der weiterhin angespannten Situation im Speicher Markt würde ich nicht unbedingt darauf wetten.
 
Ob GDDR5 oder GDDR6 das Rennen machen wird hängt vermutlich nicht zuletzt vom Preis und dessen Verfügbarkeit ab. Gut möglich das es bereits GDDR6 werden könnte aber angesichts der weiterhin angespannten Situation im Speicher Markt würde ich nicht unbedingt darauf wetten.

Naja, bis dahin gehen noch zwei Jahre ins Land ;D und die Alternative (HBM3 oder "exotisch") wäre wohl nicht billiger
Stefan Payne schrieb:
Daher sollte man Änderungen am CCX eher ausschließen. Das einzige, was möglich wäre, wären Verbesserungen von Zen2.

Kannst Du durchaus recht haben... oder auch nicht... :-*
Gerade wenn auch der Wettbewerb (MS) wieder auf AMD setzen wollte, würde es sich womöglich durchaus lohnen, bei den zu erwartenden Stückzahlen, da noch mal Hand anzulegen...
Einerseits gilt es bei Konsolen, den Peakdurst mitsammt dem Graphikteil im Zaum zu halten, andererseits ist die Abstufung des Verbrauchs nicht so wichtig..
... und wie es derzeit läuft, hätte AMD wohl ausnahmensweise auch mal das Geld für ein diffiziler abgestimmtes Design..

Nicht zu vergessen, die leicht gepimmpten Upgrades (PS4pro & XB1 -S/X) haben bei vielen Konsoleros ein G'schmäckle hinterlassen...
Von daher kann ich mir schon vorstellen, dass da eine optimierte Version erdacht wird, wie es auch IBM für die PS3 gemacht hat...

Letztendlich müssen die Auftraggeber auch mal vorlegen, bisher war der Abstand zwischen den Playstations ~6Jahre , die letzte kam 2013 (Basismodel) und eben geistert vage für die PS5 2021 herum (8Jahre) kann aber durchaus noch etwas zukommen :o

Zen2 als Fundament halte ich persönlich allerdings für gesetzt

mmoe
 
Man sollte bei den Spekulationen folgende Punkte bedenken:
- die Konsolen APUs sind fully custom SoC, es wird ohnehin ein komplettes indiviuelles Design gemacht
- sofern wieder SMT als nicht nützlich angesehen wird muss man mindestens überflüssige Schaltungen stromlos hinbekommen
- bei Scorpio rühmt sich Microsoft angepasste/optimierte ISA im Design implementiert zu haben, das steht Sony auch zur Option
- Samsung hat in 2016 schon von LowCost HBM mit weniger TSVs und höherem Pin-Takt gesprochen
- HBM wird insbesondere durch die Stapelhöhe und den damit sinkenden Yield teurer
- In 2020 werden HBM2 Nachfolger etabliert sein, es spricht nichts gegen HBM3 in 7nm, es könnten aber auch reifere Fertigungsverfahren genutzt werden.
- Es gab noch keine CPU, die selbst an HBM betrieben wurde
- Der HBMCC für relativ kleinen/günstigen VRAM als Cache hat den Proof of Concept geschafft
- Die Konsolen-OS werden wohl auch künftig mit 1GB-2GB Reserve auskommen, 16GB total sind dann schon ca. 3x so viel nutzbarer RAM für Developer
- In 2020 wird der Mainstream TV wohl "full" 4k UHDTV sein, dafür wird man voraussichtlich die Konsolen auslegen.
- Die letzte Konsolengeneration musste ohne Infinity Fabric auskommen, das ist aber Grundlage aller neuen SoC Designs von AMD
- Die Steigerung der IF Leisung mit den SerDes für PCIe4/5 und den kleineren Strukturbreiten ist noch unbekannt
- Microsoft hat das Raytracing in DX eingeführt, dafür sind spezielle ASICs im SoC sicherlich eine Option (siehe PowerVR GR6500)
- Raytracing benötigt nicht so viel VRAM
- In 2020 will AMD schon bei Zen3 sein, die Konsolenhersteller haben in den SoCs teilweise Entwicklungen vorweg nehmen dürfen. "Zen2 design is complete", es wird aktuell Zen2+, Zen3 und Nachfolger entwickelt

Gruselige Spekulationen gibts jetzt sogar als Video hier bei Golem....
 
Zuletzt bearbeitet:
- die Konsolen APUs sind fully custom SoC, es wird ohnehin ein komplettes indiviuelles Design gemacht
Ja, aber nur aus Komponenten, die verfügbar sind. Quasi Bausteine zusammengesetzt mit geringen änderungen, die ohne weiteres möglich ist.

- sofern wieder SMT als nicht nützlich angesehen wird muss man mindestens überflüssige Schaltungen stromlos hinbekommen
Ja, aber warum sollte man das tun?
Schon die XBox 360 war mit SMT ausgestattet und das hat sich recht gut bewährt.
Dazu gibt das dann auch zwischen 20 und 40% mehr Performance, die eh da ist. Also das für die PS5 nicht zu nutzen, halte ich für ziemlich bescheuert.
Das wird da sein, ganz sicher. Allerdings wird es sehr wahrscheinlich einen PS4 Kompatibilitätsmode geben, in dem das abgeschaltet werden wird - a la Boost Mode bei der PS4 PRO aktuell. Und es wird einige Systemweite Optionen zur Grafik und so geben.

- bei Scorpio rühmt sich Microsoft angepasste/optimierte ISA im Design implementiert zu haben, das steht Sony auch zur Option
Checkerboard Rendering?!
Sony hat das doch auch gemacht, tritts nur nicht so breit.

- Samsung hat in 2016 schon von LowCost HBM mit weniger TSVs und höherem Pin-Takt gesprochen
...und nur 512bit pro Chip, bei gleichem Takt.
Jetzt ist die Frage, wie groß (GBit) man die Chips bekommt. und wie gut man die aufs Package packen kann...
- HBM wird insbesondere durch die Stapelhöhe und den damit sinkenden Yield teurer
Ja, aber auch hier sind Custom Größen möglich, wenn man hier von großen Mengen wie Konsolen redet...

Wobei auch die Frage ist, wenn man HBM nutzt, zwei Stacks oder 4 nutzen wird.
Und Chips mit 512bit oder 1024bit.

Man könnte mit 4x 512bit anfangen und später mit den Shrinks auf 2x1024bit gehen. Oder man könnte auch richtig auf die Kacke hauen und 4x1024bit nehmen...

- Es gab noch keine CPU, die selbst an HBM betrieben wurde
Vor der PS4 gab es keine CPU, die an GDDR5 betrieben wurde.

- Der HBMCC für relativ kleinen/günstigen VRAM als Cache hat den Proof of Concept geschafft
Ist aber auch nur 'ne Krücke, weil du keinen gemeinsamen Speicherpool hast, was du aber eigentlich willst.

- Die Konsolen-OS werden wohl auch künftig mit 1GB-2GB Reserve auskommen, 16GB total sind dann schon ca. 3x so viel nutzbarer RAM für Developer
hm?!
Das sind schon mehr als 5GiB, die die Spiele nutzen können.
Eher so 6-7GiB.

- In 2020 wird der Mainstream TV wohl "full" 4k UHDTV sein, dafür wird man voraussichtlich die Konsolen auslegen.
Aber nicht über das Ziel hinaus schießen, wie man es bei der PS3 gemacht hat und völlig überteuerte Hardware verbaute (die auch noch schlechter als 360 war).

Zur Erinnerung: Schon die 360 hatte einen gemeinsamen Speicherpool, der an der GraKa angeschlossen war. Und die 360 Slim hat einen SOC, bei dem nur ROPs + Framebuffer getrennt sind...
- Die letzte Konsolengeneration musste ohne Infinity Fabric auskommen, das ist aber Grundlage aller neuen SoC Designs von AMD
Der Aufbau von den PS4/Xone Chips ist ähnlich zu Ryzen.
Man kann also behaupten, dass die Konsolen Custom Chips den Aufbau von Ryzen maßgeblich beeinflusst hat.

Und über die Konsolen Chips an sich weiß man auch relativ wenig, abgesehen von dem, was die Konsolen Hersteller kommuniziert haben...
Und daher würde ich nicht ausschließen wollen, dass schon die PS4/Xone sowas wie Infinity Fabric hatten.

- Die Steigerung der IF Leisung mit den SerDes für PCIe4/5 und den kleineren Strukturbreiten ist noch unbekannt
PCIe 4/5 ist irrelevant für Konsolen, da die Grafikkarte Intern angebunden ist, mit welchem Protokoll auch immer. Und das macht die PHYs deutlich kleiner, wenn man nicht vom CHip runter muss.
PCIe 3.0 wird man zur Anbindung des "Primärem Steuer Chips" verwenden, wie es bei der PS4 der Fall ist...

Die wirklich interessante Frage ist:
Hat die PS5 echtes S-ATA3 für die HDD?!
Und nicht so ein SATA via USB Bullshit wie bei der PS4.

- Microsoft hat das Raytracing in DX eingeführt, dafür sind spezielle ASICs im SoC sicherlich eine Option (siehe PowerVR GR6500)
- Raytracing benötigt nicht so viel VRAM
Raytracing ist überbewertet und macht nur für bestimmte Sachen Sinn, wie Beleuchtung zum Beispiel.

Das Reytracing ist einfach furchtbar ineffizient und sack lahm. Das wird sich daher auch nicht soo breit durchsetzen können.

- In 2020 will AMD schon bei Zen3 sein, die Konsolenhersteller haben in den SoCs teilweise Entwicklungen vorweg nehmen dürfen. "Zen2 design is complete", es wird aktuell Zen2+, Zen3 und Nachfolger entwickelt
Ja, aber da wird man auch schauen wie sich das ganze wirklich auf das ganze auswirkt.
Und eben auch die Sache mit den Bugs würde ich nicht vergessen wollen.

Also Zen+ halte ich für wahrscheinlich, Zen2 hingegen nicht. Denn die Konsole braucht ja auch 'nen Jahr, eher zwei vorlauf, um die Hardware zu bestellen, in Silikon zu gießen, das Board zu bauen und zu evaluieren und so weiter...

Bedenkt bitte auch wie "schwach" die Konsolen aktuell sind.
Die haben ja auch gerade mal ~2048 Shader bei etwa 1GHz.

Man will aber nicht alles rausholen, wo geht, da man ja auch noch die Energieeffizienz in Betracht ziehen muss.
Daher denke ich schon, dass wir 4096 Shader sehen werden, aber an den Taktraten wird sich nicht allzu viel ändern! Wir werden auch dann noch eher von ~2,5GHz für die CPU und ~1-1,2GHz für die GPU reden...
3GHz für die CPU finde ich jetzt nicht soo wahrscheinlich, auch 1,4-1,5GHz für die GPU. das killt einfach die Energieeffizienz zu sehr.
 
Zuletzt bearbeitet:
Zurück
Oben Unten