PS-Nachfolge: Sony setzt auf AMD - nur was steckt drin?

Und nochmal zum Speicher. Ich finde es halt inkonsequent, wenn ich bei der CPU auf ein stromsparendes Konzept setze, aber dann 8 GB stromfressenden GDDR5-Speicher verwende. Da hätte wohl eine Aufteilung in 8 GB DDR3 für die CPU und 2 GB GDDR4 für die GPU mehr gebracht. Aber dazu wird es nicht mehr kommen und dafür war mein Jahr Pause gedacht.

Und um komplett in Spekulation zu versinken. Vielleicht war die Konsole nie mit GDDR5-Speicher geplant, jedoch musste die Bandbreite deutlich erhöht werden, da aufgrund der schwachen CPU viele Berechnungen auf die GPU ausgelagert werden müssen. Mit "normalem" DDR3-Speicher hätte man jedoch den gefürchteten Flaschenhals gehabt.
Du hast offensichtlich das APU-Konzept nicht verstanden.
 
Du hast offensichtlich das APU-Konzept nicht verstanden.

Das Konzept schon, aber man sollte ja alle Möglichkeiten in Betracht ziehen, etwas besser und anders machen zu können. Da die PS4-APU eh zusammengestückelt ist, wäre es wohl technisch machbar und die APU teilt sich den Speicher ja schon selbst auf. Dann halt fest zugewiesene 4 GB für die CPU und fest zugewiesene 4 GB für die GPU. Mit 2 Speichercontroller oder einem flexiblen könnte dann DDR3 und GDDR5 parallel genutzt werden. Für die Stückzahlen der PS4 wohl rentabel ausführbar ...

Der teure Speicher auch schon der Kritikpunkt an den aktuellen APUs. Um das volle Potential nutzen zu können, muss ich teuren DDR1833- oder besser noch DDR2133-Speicher verwenden. Mittlerweile wieder etwas weniger zutreffend, aber der Aufpreis des Speichers machte ein konventionelles Konzept wieder tragbarer. Und eine APU muss sich trotz allem einem Gespann aus gewöhnlicher CPU + GPU stellen.

Gruß
 
Der teure Speicher auch schon

Daran ist und war seit es llano gibt zumindest im Notebookbereich ( nicht als Llano rauskam und heute) nichts teuer, das sind 5-10 CHF mehr für die von der APU maximal unterstütze Geschwindigkeit ( 8GB ) gegenüber dem was bei Intel Notebook verbaut wird, also kein Preisunterschied. bei Grossem Volumen über Jahre wird der Preisunterschied auch geringer sein.

Der Rest macht wenig Sinn wenn man das APU Konzept verstanden hat, ...
 
@wu134
Informier dich nochmal bezüglich HSA bevor du dich um Kopf und Kragen redest.
 
@ Wu
Du argumentierst z.T. ohne Argumentationsgrundlage:

GDDR5:
(1) Wie hoch sind die GDDR5 Preise gegenüber DDR3, wenn Sony einen Großauftrag vergibt?
(2) Wie hoch ist der Mehr-Stromverbrauch, den du als Argument gegenüber der stromsparenden CPUs einwirfst gegenüber 8GB DDR3 im Gesamtsystem?
(3) Was wäre so schlimm daran, wenn eine PS4 durch diese Designentscheidungen bei Spitzenlast sagen wir 20W mehr verbrauchen würde? Würde dies den Spielspaß einschränken, die Qualität des Spiels reduzieren, etc?
Dass DDR3 geplant war, und es nur aufgrund der mangelnden CPU-Leistung zu dem von dir gefürchteten GDDR5 gekommen ist, mag ich zu bezweifeln. GDDR5 ist zum Standard für Grafikkarten mit mittlerer bis hoher Performance geworden, unabhängig von deren GPGPU-Fähigkeiten.
Ganz ehrlich: Man muss schon ein ziemlicher Charakterkopf sein, um sich an den Entscheidungen bezüglich der Speicherbestückung einer Konsole aufzureiben, welche in 9 Monaten erst auf den Markt kommt. Als ob du ab dem Moment der Bekanntgabe bereits einen persönlichen Verlust dadurch erlitten hättest...

Das OS der PS4
Sollte ziemlich genau wissen, dass 8 Jaguar-Kerne verbaut sind. Allein aufgrund dessen können Spiele für höhere Parallelelität ausgelegt werden, u.a. auch um das wahllose Wechseln von Threads der CPU-Kerne zu vermeiden. Vergleich zum PC: Entwickler nehmen Rücksicht auf Besitzer von Dualcores, auf verschiedene Architekturen, udg.

Technisch sollte diese APU perfekt für anspruchsvolles HD-Gaming geeignet sein, und dabei einen gesunden Kompromiss verschiedener Parameter darstellen (Performance, Performance/Watt, Stromaufnahme, Kosten, etc.).
Das Argument der Vereinfachung und Kostenersparnis in der Entwicklung aufgrund ähnlicher GPU-Architekturen der kommenden Konsolengeneration schmetterst du mit Plattitüden ("Christkind") ab - was den Gehalt deiner Argumentation nicht unbedingt steigert.
 
Das Konzept schon, aber man sollte ja alle Möglichkeiten in Betracht ziehen, etwas besser und anders machen zu können. Da die PS4-APU eh zusammengestückelt ist, wäre es wohl technisch machbar und die APU teilt sich den Speicher ja schon selbst auf. Dann halt fest zugewiesene 4 GB für die CPU und fest zugewiesene 4 GB für die GPU. Mit 2 Speichercontroller oder einem flexiblen könnte dann DDR3 und GDDR5 parallel genutzt werden. Für die Stückzahlen der PS4 wohl rentabel ausführbar ...
Gruß
Blödsinn.
Die PS4 APU ist wohl als erste echte APU zu betrachten. Da darf man nicht mehr in Kategorien von CPU und GPU denken. Gerade der gemeinsame schnelle Speicher bringt die wesentliche Performance. Kein umkopieren mehr zwischen CPU und GPU Speicher.
Der Programmierer muß sich keinen Kopf mehr darum machen, wo was im Speicher angelegt werden muß.
Zudem kann man auf die Hardware bezogen programmieren. Die parallelen Aufgaben können schon vorcompiliert im Spiel enthalten sein und müssen nicht erst wie bei OpenCl zur Laufzeit compiliert werden.
Die vielen sequentiellen x86 Kerne erleichtern es enorm, nebenläufige Prozesse laufen zu lassen, wobei Chat etc. im Spiel kaum Leistung beansprucht. Wenns hilft, ist es ja auch kein Problem per MMU Speicherbereiche für bestimmte Aufgaben zu reservieren und diese mit definierten Kernen zu verknüpfen. Es ist ja kein PC, wo der Speicher mal eben auf Platte ausgelagert wird, wenn er nicht reicht.
Wenn die Programmieranweisungen lauten: 1 Kern und 1GB stehen für OS und sonstiges zu verfügung, kann sich das Game auf dem Rest der definierten Hardware austoben ohne dass man Angst haben muß, dass einem andere Prozesse dazwischen hauen.

Was anderes: Wenn ich von nVidia lese, dass ihr Titan 3x Leistungsfähiger als die PS4 GPU sei, kann ich nur lachen. Sicherlich ist sie das nach den reinen Leistungsdaten, sie ist aber auch wesentlich teuerer, hat mehr Verbrauch und enthält keine CPU Kerne.
Ein 1000€ PC ( mit weniger leistungsfähiger GPU als Titan, sonst wird es teurer ) dürfte der PS4 zwar leistungsmäßig überlegen sein, kämpft aber auch mit den Hemmnissen des geteilten Speichers, der bei jedem Spielstart zu prüfenden Hardware etc. Wird das PC Spiel auf potente Hardware ausgelegt, läuft es auch nur dort wirklich rund, solange nichts anderes im Hintergrund tätig ist, ist das Game auf weniger leistungsfähige Hardware ausgelegt, sind die Gamer am Jammern wie schlecht die Hardware genutzt wird.
Das gibt es bei den Konsolen nicht, wenn das Game an diese angepasst ist. Der Programmierer kennt die verfügbaren Ressourcen genau und kann entsprechend optimieren, damit es nicht zu Rucklern kommt und sich ein angenemes Spielerlebnis ergibt.

Ich bin sicher, dass wenn es die Möglichkeit gegeben hätte für ca.400€ eine leistungsfähigere, Energiesparendere Konsole mit anderen Komponenten zu bauen, hätte Sony und wohl auch Microsoft diese getan.
Es gibt aktuell keine Möglichkeit etwas besser oder anders zu machen bei vergleichbarer Preis/Leistung.
 
Hallo,

in Bezug auf APU nehm ich meine Behauptungen teilweise zurück. Aber ich meine irgendwo gelesen zu haben, dass unterm Heatspreader 2 (oder sogar 3) Dies liegen und kein großer gemeinsamer, so dass ich das ganze nicht so wirklich als APU einordne, sondern als "zusammengeklebter" Jaguar-Kern und Radeon-Grafikchip. Trotz allem bin ich vom Konzept nicht gänzlich überzeugt (meine eigene Meinung). Als ich mich zum Thema HSA und APU eingelesen habe, hab ich zu oft "wie erwartet", "wie gewünscht", "falls die Entwickler es nutzen" usw. gelesen. Da denke ich immer noch an die "3DNow"-Einheit, die damals auch als große Revolution gefeiert wurde und gnadenlos ignoriert wurde. Vielleicht bin ich da zu sehr negativ vorbelastet, wenn es darum geht, als Kunde bei neuartigen Technologien der Vorreiter zu sein ... wobei die PS3 als Zugpferd die notwendige Basis für einen Erfolg stellen müsste. Interessant wird da dann die Technik der neuen XBox sein, ob sie den gleichen Weg wie die PS4 geht oder doch näher am CPU + GPU-Konzept bleibt. Sie wird dann wohl das Zünglein an der Waage sein.

Und zu meinen Ausführungen zu GDDR5. Als GDDR5 auf den ersten Karten auftauchte, war die Steigerung des Stromverbrauches teilweise extrem und wurde oft bemängelt. Leider hab ich jetzt direkt passenden Link gefunden, aber das hier sollte die Richtung zeigen. Von daher find ich es verwirrend, auf der einen Seite eine stromsparende CPU (als Teil der APU ;)) zu verwenden, aber dann quasi mit GDDR5 bei hohem Takt einen großen Energiebedarf zu haben. Da hätte man gleich die CPU höher takten können, wenn es ja auf 20W mehr Spitzenlast nicht ankommt ... ein Preisvorteil für GDDR5 wäre wohl ähnlich einzustufen wie ein Preisvorteil für DDR3, wenn Sony mal bestellt (wobei man dann DDR3 wohl fast geschenkt bekommen müsste *suspect*)

Und 20 W Spitzenlast sind interessant. Denn das heißt größeres Netzteil, dickere Leitungen, größere Kühlung. Das kostet alles Geld und hat (leider) auch großen Einfluss auf die letztendliche Ausstattung.

Und nochmal zu den 8 Jaguar-Kernen: Die PS3 hatte schon 7 SPUs (davon eine als Hypervisor reserviert) und die XBox eine 3-Kern-CPU mit HT-Technik, so dass pro Kern 2 Threads parallel bearbeitet werden können. Von daher habe ich da keine großen Erwartungen, trotz den Fortschritten in der Technik. Es ist ja nicht so, dass vorher ein Einkerner verbaut war ... und dann bleibe ich skeptisch, ob wirklich alles so problemlos parallelisiert werden kann. Beim Spielen wird z. B. vieles auf die Interaktionen des Spielers ausgelegt, da hängt das meiste voneinander ab und vielleicht 4 Kerne warten im Prinzip ständig auf die Teilergebnisse vom 1. Kern. Wenn ich ein Video umrechne, können 200 Kerne 200 Bilder nebeneinander umrechnen und danach wieder aneinanderstückeln, das ist kein Problem und problemlos auf z. B. 500 Kerne umlegbar (sofern genügend Material vorhanden ist).

@amdfanuwe: Auch von der PS4 sind nur nackte theoretische Leistungsdaten verfügbar. Von der PS3 und ihrem Cell-Kern waren die reinen technischen Daten sehr beeindruckend (für das Jahr 2005: 204,8 GFlops, theoretisch das Doppelte der XBox 360-CPU), aber in der Praxis konnte die PS3 diesen theroetischen Vorteil nie derart ausnutzen. Letztendlich zählt nur das, was am Ende auf dem Bildschirm erscheint ... und auch das muss die PS4 erst beweisen.

Gruß
 
Leider hab ich jetzt direkt passenden Link gefunden, aber das hier sollte die Richtung zeigen. Von daher find ich es verwirrend, auf der einen Seite eine stromsparende CPU (als Teil der APU ) zu verwenden, aber dann quasi mit GDDR5 bei hohem Takt einen großen Energiebedarf zu haben. Da hätte man gleich die CPU höher takten können, wenn es ja auf 20W mehr Spitzenlast nicht ankommt .
Dafür ist GDDR5 auch doppelt so schnell. Sprich das rentiert sich. 20W mehr in der CPU rentieren sich dagegen nicht, wenn die wartet dann nur schneller aufs langsame RAM.

Kurz: Ein Wattbudget investiert man ins Weiten von Flaschenhälsen und nicht planlos in Sachen wo es nichts bringt.
 
Aber ich meine irgendwo gelesen zu haben, dass unterm Heatspreader 2 (oder sogar 3) Dies liegen und kein großer gemeinsamer, so dass ich das ganze nicht so wirklich als APU einordne, sondern als "zusammengeklebter" Jaguar-Kern und Radeon-Grafikchip.
Dann lies nochmal genau nach. Es ist ein einziger Die.
Trotz allem bin ich vom Konzept nicht gänzlich überzeugt (meine eigene Meinung). Als ich mich zum Thema HSA und APU eingelesen habe, hab ich zu oft "wie erwartet", "wie gewünscht", "falls die Entwickler es nutzen" usw. gelesen.
Bei einer Konsole wird mit Sicherheit jede Kleinigkeit die etwas Performance bringt genutzt.
Und zu meinen Ausführungen zu GDDR5. Als GDDR5 auf den ersten Karten auftauchte, war die Steigerung des Stromverbrauches teilweise extrem und wurde oft bemängelt.
Lang lang ist's her.
aber in der Praxis konnte die PS3 diesen theroetischen Vorteil nie derart ausnutzen.
Weil die Programmierung des Cell die Hölle war. Nicht zu vergleichen mit einer x86-CPU.
 
Aber ich meine irgendwo gelesen zu haben, dass unterm Heatspreader 2 (oder sogar 3) Dies liegen und kein großer gemeinsamer, so dass ich das ganze nicht so wirklich als APU einordne, sondern als "zusammengeklebter" Jaguar-Kern und Radeon-Grafikchip.
So ein MCM findest du in der Wii U und älteren XBox 360. Hast du das vielleicht dort aufgeschnappt?

Trotz allem bin ich vom Konzept nicht gänzlich überzeugt (meine eigene Meinung). Als ich mich zum Thema HSA und APU eingelesen habe, hab ich zu oft "wie erwartet", "wie gewünscht", "falls die Entwickler es nutzen" usw. gelesen.
HSA wird vermutlich nicht genauso in der PS4 umgesetzt, wie es von der HSA Foundation gedacht ist. Schließlich muss Sony dort nicht so auf Flexibilität achten. Und ein John Carmack würde auch nicht so sehr von hardwarenaher Entwicklung schwärmen, wenn HSA auf der PS4-Speisekarte stünde. Sony hat sogar mit AMD eine eigene Shader Language entwickelt. Es flossen noch zusätzliche konsolenspezifische Erweiterungen in die GPU-Hardware ein.

Da denke ich immer noch an die "3DNow"-Einheit, die damals auch als große Revolution gefeiert wurde und gnadenlos ignoriert wurde. Vielleicht bin ich da zu sehr negativ vorbelastet, wenn es darum geht, als Kunde bei neuartigen Technologien der Vorreiter zu sein ... wobei die PS3 als Zugpferd die notwendige Basis für einen Erfolg stellen müsste. Interessant wird da dann die Technik der neuen XBox sein, ob sie den gleichen Weg wie die PS4 geht oder doch näher am CPU + GPU-Konzept bleibt. Sie wird dann wohl das Zünglein an der Waage sein.
3DNow! litt u.a. am AMD-Marktanteil. Wenn auch große Softwarehäuser (z.B. Adobe) nicht sofort bei Ankündigung einer ISA-Erweiterung auf den Zug aufspringen, waren doch kleinere Entwickler (z.B. auch Spieleentwickler der 90'er) da mobiler. So gab es Spiele u. 3D Engines, welche 3DNow! nutzten. Und auch Grafiktreiber nutzten es. Dann mag man zwar nur an eine Softwarekomponente denken. Aber diese nutzten wiederum viele Spiele und damit indirekt auch 3DNow!. Und nein, Grafiktreiber kopieren nicht nur Daten... ;-)
Siehe z. B. http://www.thefreelibrary.com/3Dfx+...+and+Voodoo+Banshee+Drivers+For...-a021104823


Und zu meinen Ausführungen zu GDDR5. Als GDDR5 auf den ersten Karten auftauchte, war die Steigerung des Stromverbrauches teilweise extrem und wurde oft bemängelt. Leider hab ich jetzt direkt passenden Link gefunden, aber das hier sollte die Richtung zeigen. Von daher find ich es verwirrend, auf der einen Seite eine stromsparende CPU (als Teil der APU ) zu verwenden, aber dann quasi mit GDDR5 bei hohem Takt einen großen Energiebedarf zu haben.
GDDR5 kann auch wie DDR3-Speicher mit unterschiedlichen Spannungen u. Takten des Interfaces und der Speicherbänke betrieben werden. Und die kubische Entwicklung des Verbrauchs bei steigender Frequenz u. dazu benötigter Spannung kennst du bestimmt. Wenn man aber für eine Konsole auf einen niedrigeren Arbeitspunkt setzt (näher am "sweet spot"), dann existiert dieses Problem auch nicht.

Und nochmal zu den 8 Jaguar-Kernen: Die PS3 hatte schon 7 SPUs (davon eine als Hypervisor reserviert) und die XBox eine 3-Kern-CPU mit HT-Technik, so dass pro Kern 2 Threads parallel bearbeitet werden können. Von daher habe ich da keine großen Erwartungen, trotz den Fortschritten in der Technik. Es ist ja nicht so, dass vorher ein Einkerner verbaut war ... und dann bleibe ich skeptisch, ob wirklich alles so problemlos parallelisiert werden kann. Beim Spielen wird z. B. vieles auf die Interaktionen des Spielers ausgelegt, da hängt das meiste voneinander ab und vielleicht 4 Kerne warten im Prinzip ständig auf die Teilergebnisse vom 1. Kern. Wenn ich ein Video umrechne, können 200 Kerne 200 Bilder nebeneinander umrechnen und danach wieder aneinanderstückeln, das ist kein Problem und problemlos auf z. B. 500 Kerne umlegbar (sofern genügend Material vorhanden ist).
So viele verschiedene Architekturen und Begriffe in einem Topf.
Die SPEs waren schon recht speziell (etwa so wie Larrabee-Cores): hochgetaktete In-Order-Kerne mit eigenem Speicher (Zugriff auf anderen Speicher via Bus, DMA u. generelles Management durch PPE). Da aber pro SPE nicht mehrere Threads ausgeführt wurden, war es darauf vermutlich nicht so leicht, eine hohe Auslastung pro SPE sicherzustellen. Der einzelne PPC-Kern für allgemeine Aufgaben wäre dagegen wieder mit den vielen Algorithmen der Spiele überfordert. In diesem Artikel hier:
http://www.ibm.com/developerworks/power/library/pa-cellperf/
finde ich die aggregierten EIB-Bandbreiten interessant, welche in der Größenordnung der PS4-GDDR5-Bandbreite allein liegen.

Zumindest sind SPEs keine General Purpose Cores wie die Jaguar-Kerne. Weiterhin ist der PPE-Kern (wie die XBox-Kerne) in-order, kann daher nur (wie ein Atom-Kern) durch Multithreading die Auslastungseffizienz erhöhen. Dafür leidet aber die Ausführungsdauer eines einzelnen Threads, die durch in-order-Ausführung grob bei 70% der out-of-order-Ausführung liegt. Der 2. Thread erhöht auch nur den Durchsatz, nicht diese Latenzen. Stattdessen wird er sogar bremsend auf den 1. Thread wirken. Immerhin ist der Effekt nicht so stark, wie bei Hyperthreading auf effizienten OoO-Kernen.

Auch ist die Double Precision Performance der SPEs sehr gering im Vergleich zu ihrer Single Precision Performance. Dieser Effekt ist bei Jaguar-Kernen nicht ganz so groß.

Und schließlich dient doch das ganze Konzept des gemeinsamen Speichers und der Nutzung von GPU-Shadern für Compute-Aufgaben dazu, parallelisierbare Berechnungen auf die GPU auszulagern, was in der PS3 nicht möglich war und von den SPEs übernommen werden musste.

So gesehen übernehmen die 8 Jaguar-Kerne die Aufgabe des PPE-Kerns, während die SPE-Aufgaben nun sowohl von GPU-Shader-Kernen als auch den Jaguar-Kernen bearbeitet werden können (je nach Eignung).

Und das PS4-GPU-Frontend wurde sogar noch weiter für Compute-Aufgaben optimiert (im Vergleich zu Desktop-GPUs). VGLeaks hat dazu schon ein entsprechendes Architekturbild veröffentlicht, welches hier im Forum auch schon gezeigt wurde.

@amdfanuwe: Auch von der PS4 sind nur nackte theoretische Leistungsdaten verfügbar. Von der PS3 und ihrem Cell-Kern waren die reinen technischen Daten sehr beeindruckend (für das Jahr 2005: 204,8 GFlops, theoretisch das Doppelte der XBox 360-CPU), aber in der Praxis konnte die PS3 diesen theroetischen Vorteil nie derart ausnutzen. Letztendlich zählt nur das, was am Ende auf dem Bildschirm erscheint ... und auch das muss die PS4 erst beweisen.
In dem Punkt bin ich voll und ganz bei dir. Wobei die Ausnutzung des theoretischen Vorteils des Cell-Prozessors (nicht Kern) aus oben genannten Gründen schwierig war.
.
EDIT :
.

Addendum:
Interessantes u. umfangreiches Forenposting zum Thema SPE-Auslastung beim Cell-Prozessor der PS3 in Games:
http://www.neogaf.com/forum/showthread.php?t=184843
 
@amdfanuwe: Auch von der PS4 sind nur nackte theoretische Leistungsdaten verfügbar. Von der PS3 und ihrem Cell-Kern waren die reinen technischen Daten sehr beeindruckend (für das Jahr 2005: 204,8 GFlops, theoretisch das Doppelte der XBox 360-CPU), aber in der Praxis konnte die PS3 diesen theroetischen Vorteil nie derart ausnutzen. Letztendlich zählt nur das, was am Ende auf dem Bildschirm erscheint ... und auch das muss die PS4 erst beweisen.

Gruß
Klar, nur haben wir die Architektur ja schon aktuell im PC, x86 Kerne und GCN GPU. Da gibt es schon entsprechende Entwicklererfahrung im Umgang mit der Hardware. Also kein Neuland mit negativen Überraschungen. Wenns dumm läuft kommt wohl kaum mehr raus als bei einem guten Quadcore + 7850. Ich denke aber eben, dass durch das APU Konzept und dem gemeinsamen Speicher mehr zu erwarten ist als bei eben solchen Komponenten und es eine Weile dauern wird, bis ein PC Preis/Leistung mäßig günstiger sein wird, als eine PS4.
Mal sehn, was kommt. Letztendlich kommt es eh auf die Inhalte an. Ich vermisse manchmal alte Games von Atari oder C64 die mir trotz miserabler Grafik mehr Spass machten als mancher aktuelle Shooter.
 
Hallo,

@Dresdenboy: Ich glaub, du hast mich auf die richtige Fährte geführt. Hab beim Googlen und Lesen über die PS4 auch einen Artikel über die WiiU und deren Chip gelesen. Dort wurde die geköpfte Einheit analysiert und auch Vergleiche über die Diegröße gemacht. Da hab ich jetzt fälschlicherweise an die PS4 gedacht. Asche auf mein Haupt ...

Der GDDR5-Speicher wird mit 176 GB/s angegeben. Klingt nicht nach einem "Energiesparbetrieb". Als Frequenz wurden mal 1125 Mhz genannt, finde aber grad keine Bestätigung.

Wegen den Kernen. Ich weiß schon, dass man die Kerne der PS3, XBox 360 und der PS4 nicht vergleichen kann. Aber alle 3 besitzen schon ein multicore-Konzept, so dass die Entwickler die Problematik und auch Vorteile schon kennen und daher meiner Meinung nach der große "Aha"-Effekt ausbleibt.

Gruß
 
Der GDDR5-Speicher wird mit 176 GB/s angegeben. Klingt nicht nach einem "Energiesparbetrieb". Als Frequenz wurden mal 1125 Mhz genannt, finde aber grad keine Bestätigung.
Man kann Bandbreite auch mit zusätzlichen Bitleitungen erreichen. Aber laut dieser Präsentation von Samsung zu GDDR3- und GDDR5-Bausteinen:
http://www.samsung.com/us/business/oem-solutions/pdfs/Green-GDDR5.pdf
scheint mir der größte Einfluss beim Energieverbrauch der Herstellungsprozess zu sein.

Dort verbraucht auf S. 6 der GDDR3-Speicher bei 128 GB/s nahezu 20 W, während GDDR5 bei gleicher Bandbreite, aber auch besserem 46 nm-Prozess auf etwa 7,5 W kommt. Das ist für mich jetzt ein anderes Bild, als deine Argumentation zu alten DDR3/GDDR5-Grafikkartenvergleichen. Da GDDR5 schon mit 7 GT/s angeboten wird (statt 5,5 GT/s wie bei der PS4), werden die PS4-Speicherchips vermutlich auch in einem angenehmeren Spannungsbereich arbeiten. (bezogen auf die erwähnte kubische Verbrauchskurve)

Wegen den Kernen. Ich weiß schon, dass man die Kerne der PS3, XBox 360 und der PS4 nicht vergleichen kann. Aber alle 3 besitzen schon ein multicore-Konzept, so dass die Entwickler die Problematik und auch Vorteile schon kennen und daher meiner Meinung nach der große "Aha"-Effekt ausbleibt.
Mehrere Kerne sind ja auch nicht das Besondere. Es ist eine evolutionäre Entwicklung von einem bzw. drei in-order general purpose CPU-Kernen in PS3 u. XBox 360 zu 8 out-of-order general purpose CPU-Kernen. Wo die SPEs hinzuzuzählen sind, habe ich ja schon erklärt. Und SPEs zu programmieren und auszulasten war laut neogaf-Link auch wirklich nicht so leicht.

Das PS4-Architekturbild gab es ja erst kürzlich in diesem Thread:
http://www.planet3dnow.de/vbulletin/showpost.php?p=4755818&postcount=68

Dort hat FredD schon die wichtigen Stellen zitiert. Offenbar wurden bei der PS4 die Compute-Ressourcen der GPU deutlich erhöht. Und wofür sonst sollten sie dienen, als für ähnliche Aufgaben wie die, wofür die SPEs gut geeignet waren?

Hier nochmal eine schöne Übersicht der gesamten Architektur von Hiro Goto:
http://pc.watch.impress.co.jp/img/pcw/docs/593/760/html/1.jpg.html

Hier die CPU-Vorteile aus seiner Sicht:
http://pc.watch.impress.co.jp/img/pcw/docs/593/760/html/3.jpg.html

Ein paar Worte in dieser Übersicht zu den PS4-APIs:
http://pc.watch.impress.co.jp/img/pcw/docs/593/760/html/15.jpg.html

Hier ist der letzte seiner PS4-Artikel, aus dem diese Bilder stammen:
http://pc.watch.impress.co.jp/docs/column/kaigai/20130329_593760.html
Ohne Translator kannst du dort auch Darstellungen der SPE- u. PPE- sowie Bobcat- und Jaguar-Mikroarchitekturen finden.
 
Aus der von Dresdenboy verwiesenen Präsentation zu Samsung GDDR5 "Green", zeigt Folie 4 f. auch recht anschaulich die grobe Entwicklung (Einführung von GDDR5 übrigens 2008 ).

 
@ Dresdenboy: Danke für die Links.
 
Einen hab ich noch... ;) Nein, noch mehr, aber dieser ist interessant:
http://www.7-cpu.com/

IBM Cell PPU (1 core) 3200 MHz:
1 Thread: 720 1060
2 Threads: 900 1500
4 Threads: 1000 1500

AMD E-350 (2 Cores) 1600 MHz
1 Thread: 1120 1480
2 Threads: 2080 2900
Die Scores stellen die Benchmarkergebnisse für den 7-Zip CPU-Benchmark dar. Der linke Wert steht für Kompression, der rechte für Dekompression. Die SPEs werden nicht unterstützt.

Zum Vergleich auch:
Intel Atom N270 (1 core) 1600 MHz
1 Thread: 700 900
2 Threads: 1000 1500
 
Zuletzt bearbeitet:
Wenn man schon so Ergebnisse postet, sollte man der Fairness vielleicht folgendes nicht unterschlagen:

Atom N270
Launch Date: Q2 2008
Max TDP: 2,5W

AMD E-350
Launch Date: Januar 2011
Max TDP: 18W


Oder sowas:
Intel Atom Z2760 (2 cores) 1800 MHz (1,7W TDP)
4 Threads: 2060 3400
 
scheint mir eher so, als sei der N270 zum Vergleich mit der IBM Cell PPu gewählt worden.
 
@sturmi
Das mit der TDP würde ich mal rauslassen, weil beim Atom in den 2,5 Watt die GPU noch nicht mit drin ist, während beim E350 eine hier nicht relevante verhältnismäßig aber ziemlich dicke GPU mit in die TDP einfließt. Insofern bringt die Angabe nichts. Wenn dann vielleicht noch der Cloverview, aber allgemein wäre das nur interessant, wenn man den Verbrauch während des Tests angibt. Egal wie, bringt das nur verwirrung.

Es geht ja bei Dresdenboy - so wie ich das verstehe - eher um die Leistungsfähigkeit der Architekturen, nicht der konkreten Implementierungen, wenn ich das recht verstehe. Vor allem um zu zeigen, dass die x86 LowPower Maschinen gar nicht so low-power sind im vergleich zu Cell. Dabei wäre vielleicht ein Cortex A15 noch interessant ;) (Samsung Exynos 5250 (Cortex-A15) (2 cores 1,7 Ghz) 4 Threads: Comp 2450 | Decomp 3540)
 
Zuletzt bearbeitet:
Schon klar, mir ging es mehr darum zu zeigen das eine aktuelle Tablet-CPU mit 1,7W etwa die doppelte Leistung eines IBM Cells mit ca. 80W TDP erreicht. Zumindest mal im 7-Zip Test.

Edit: Vielleicht wars einfach ein bischen zu angriffslustig geschrieben meinerseits. Hocke hier auf der Arbeit wie auf heißen Kohlen und will ins Wochenende, da leidet bei mir vielleicht die Formulierung.
 
Zuletzt bearbeitet:
@Sturmi:
Ich zeigte die Werte in Bezug auf Cell - auch die des Atom. So haben es isigrim u. amdfanuwe auch verstanden.

Die Cell-TDP ist auch diskutabel, da dort die SPEs u. der Bus enthalten sind, die für den Test, der nur auf dem PPE-Kern (bzw. PPU) lief, nicht relevant sind. Wir können das weiterführen u. zeigen, dass AMDs Temash locker mit dem P4 mithalten kann usw. Aber ohne Prozessgleichheit sagt das nicht viel aus. Schließlich müsste man dann auch den Cell-PPE-Kern in 32 nm mit den aktuelleren Atoms vergleichen.

Dein Beispiel mit einem 2-Kern-Atom bringt auch nicht viel, da darauf 4 Threads liefen. Was ist dann die 1-Kern/2-Thread-Leistung verglichen zum PPE-Kern?

Mir ging es auch darum, Wu134s Bedenken zu zerstreuen, dass acht Jaguar-Kerne zu schwach sein könnten. Da war der PPE-Bobcat-Vergleich doch naheliegend. Und das Atom-Beispiel passte gut, da ich vorher schon von den in-order-Atom-Kernen mit SMT schrieb. Und der gewählte Prozessor hat fast die gleichen Leistungswerte wie der doppelt so hoch getaktete PPE-Kern!

Auf den Prozessor-Info-Seiten sind auch sehr viele Details.
 
Was bei den ganzen Hardware vergleichen vergessen wird ist, das Sony wie auch MS ja diesesmal deutlich billigere Konsolen bauen wollten. Man bedenke wann die alte Generation erst ihre Investments wieder eingespielt hatten.
Schneller und besser ginge sicherlich allerdings scheint die APU der beste Kompromiss zu sein, der GDDR ist halt wichtig weil APU´s immer extrem vom Speicher abhängig sind.

http://www.computerbase.de/news/2009-08/sony-ps3-erwirtschaftet-langsam-gewinne/

2006 erschienen 2009 erste Gewinne mit der Hardware ich finde gerade nicht den Link denn ich mal gesehen hatte mit den Zahlen inklusive Spiele etc hab aber dunkel in Erinnerung das 2010-11 erst wirklich Gewinne generiert wurden.

Immerhin wurde damit die BluRay durchgesetzt allerdings fällt das diesmal auch raus.

E: Mann sollte noch bedenken das die wirtschaftliche Lage bei Sony im Moment auch nicht die beste ist.
 
Zuletzt bearbeitet:
Diesmal ist die Hardware aber nicht so abgehoben, ist ja wie eine Performancegrafikkarte plus Gehäuse/NT/Festplatte, sollte also für 250-300 Euro durchaus bereits mit einer schwarzen Null machbar sein (das heißt natürlich nicht, daß sich der Verkaufspreis am Herstellungspreis orientiert, das ist nie so!). Außerdem ist die Entwicklung vermutlich wesentlich einfacher, so daß nicht so viel Überzeugungsarbeit (=Geld) geleistet werden muß. Längerfristig kann das durchaus auch eine Cashcow sein.

In die Kalkulation lassen sich die Firma ja nicht gucken. Nur so was wie in der letzten Generation werden sie wohl tunlichst vermeiden.
 
Dazu kommt (vermutlich) die bessere Portierbarkeit zwischen den Plattformen als Kostenersparnis.
Für mich wirkt das ganze Konzept sehr überzeugend aus Sonys Sicht auch wenn ich keine Konsole kaufen werde (hab ich aber seit dem SNES nicht mehr ;-).
 
Zurück
Oben Unten