News Microsoft präsentiert Xbox-One-Prozessor auf der Hot Chips 25 - hUMA Sein oder Nichtsein?

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.645
Renomée
2.254
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
Wie wir bereits in unserer früheren Meldung erwähnten, fand vor kurzem die Hot-Chips-Konferenz statt. Neben großen Serverdies, wie dem 650 mm² großen Power8-Prozessor mit fast 100 MB L3-Cache von IBM, gab auch Microsoft technische Details seines auf AMDs APU-Technik basierenden SoC der kommenden Xbox One preis. Unsere japanischen Kollegen von PC-Watch Weekly konnten die wichtigsten Detailfolien erhalten. Auf der ersten Folie sieht man die technischen Eckdaten
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Die Vereinfachung mit HSA, die auf den letzten Folien gezeigt wird, bezieht sich darauf, einen Compute-Job abzusetzen.
Das scheint bei Spielen anders zu sein. Da gibt es wohl CPU-Berechnungen, GPU-Berechnungen (der genannte Compute-Job) und Shader für die Grafik.
Tim Sweeney von EPIC Games scheint jedenfalls seine Zweifel zu haben, dass HSA bei Spielen *merklich* etwas bringt. Anscheinend ist das alles noch zu kompliziert zu programmieren, wo ihm selbst AMD Recht gibt.
http://vr-zone.com/articles/epic-games-tim-sweeney-amd-dont-see-eye-eye-huma/53374.html
 
Macht es Sinn direkt nach dem Original-Artikel noch den Abklatsch zu verlinken, der die Sache nochmals negativer darstellt? Edit: Der Post vor mir wurde wieder gelöscht

Tim Sweeney schrieb:
Uniform memory access to a cache coherent shared address space is a very welcome improvement to current CPU/GPU model. On the PC platform, the challenge is how to expose it. DirectX? OpenGL? Their pace of adopting new technology is mighty slow for this significant a change. And the bigger source of non-uniformity, the programming model uniformity (C++ on CPU vs OpenCL/CUDA on GPU) remains and is an enormous barrier to the productive movement of code among processing units. Ultimately, I would love to see vector computing hardware addressed in mainstream programming languages such as C++ through loop vectorization and other compiler-automated parallelism transformations, rather than by writing code in separate languages designed for GPU.

Phil Rogers schrieb:
Like AMD, it seems Tim Sweeney clearly sees the future that HSA is aiming at: single source, high level language programs that can run both on the CPU and GPU. This is ultimately what will allow Tim, and hundreds of thousands of other software developers, to easily write software that accelerates on HSA platforms. This is exactly why we are developing HSA – unifying the addressing, providing full memory coherency and extending the capability of the GPU parallel processor to fully support C++. We are re-inventing the heterogeneous platform to eliminate all of the barriers that currently prevent a C++ or Java program offloading its parallel content to the GPU.

Tim is correct that in addition to the arrival of the HSA platform, the programming model must evolve to give easy access to GPU acceleration. OpenCL 2.0 and C++ AMP are very good steps in this direction. OpenCL 2.0 brings unified addressing and memory coherency options. C++ AMP is a single source approach that adds just two new keywords, restrict and arrayview, to allow particular methods to be compiled to both CPU and GPU and offloaded opportunistically. The HSA platform will allow both of these programming models to evolve still further towards the pure C++ model that is natural to the programmer.
Quelle
 
Ich denke, AMDs Reaktion gibt dem ganzen doch wieder einen positiven drive.
Die neuen Konsolen stehen ja am Anfang ihrer Karriere - da kann sich schon noch einiges entwickeln...
Wahrscheinlich werden die Konsolen sogar ein Zugpferd für die nötigen Software/Compiler/Bibliotheks-Verbesserungen sein.
 
Ich seh da auch keinen Widerspruch in den beiden Positionen. Der Epic-Kollege beschwert sich über den Wildwuchs bei der Programmierung. Mir drängt sich da der Eindruck auf, dass er nur was von hUMA gehört hat, aber nicht zum dazu passenden, umfassenden HSA-Ansatz. Mit HSAIL hat man ja genau das, was er fordert, einen schönen, schlanken Programmieransatz. Da ist die alte Folien hier wichtig:

40hc25_hsa.png


Scheinbar ist Tim Sweeny auf den Stand vor/bis zum langen Mittelbalken.

Man könnte seine Kritik auch so zusammenfassen: Die (hUMA)Hardware sieht gut aus, aber was ist mit der Software?

Die Frage ist einfach zu beantworten, siehe oben.
Edit:
@mibo:
Ja, wobei Sony für die PS4 ne eigene Shadersprache spezifiziert hat, PSSL:
Sonys neue Playstation Shader Language (PSSL), die für die PS4 entwickelt wurde, soll die Hardware auf der Low-Level-Ebene wesentlich besser ausnutzen. Sie sei mit HLSL vergleichbar und böte viele Funktionen, die über DirectX 11.1 und OpenGL 4.0 hinaus gehen und die Shader-Programmierung vereinfachen. Zudem könnten die GPGPU-Berechnungen simultan zu den Grafikberechnungen ausgeführt werden, was auf PCs derzeit nicht möglich sei.
http://www.heise.de/ct/artikel/GDC-Was-Entwickler-und-User-bei-der-Playstion-4-erwartet-1831997.html

Mal schauen, wieviel davon zurückfließen kann.

Edit2:
Es stellt sich auch etwas die Frage, wie unabhängig der Tim hier ist, die Demos der neuen Unrealengine gabs bei nvidia:
http://blogs.nvidia.com/blog/2013/07/24/sweeney/
PCGH schreibt:
Tim Sweeney findet Project Logan spannend Passend zur Demonstration von Nvidias Project Logan zeigt sich auch Epics Technikguru Tim Sweeney mehr als begeistert. Warum? Epic ist quasi Partner von Nvidia, denn die Demonstrationen laufen unter OpenGL 4.3 auf der Unreal Engine 4 von Epic. Laut Sweeney würde es OpenGL 4.3 ermöglichen, dass die High-End-Grafik unter DirectX 11 für PC und Xbox One/PS4 nun auch für mobile Systeme (Smartphones und Tablets) möglich ist. Dadurch würden ganz neue Möglichkeiten der Crossplattform-Entwicklung entstehen.
http://www.pcgameshardware.de/Nvidi...it-Demo-2-Watt-GPU-Video-vorgestellt-1080140/

ach noch ein nettes ZItat von der Epic-Webseite:
Thanks to an exciting collaboration with our partners at NVIDIA, we are demonstrating desktop PC game content developed with Unreal Engine 4 on NVIDIA’s next-generation mobile processor, “Logan.”
http://epicgames.com/community/2013/07/epic-games-at-siggraph-2013/

und früher haben sie ne Grafikdemo für nvidia programmiert:
Epic, NVIDIA & Tim Sweeney Talk Samaritan & The Future Of Gaming Graphics | N4G.

Insgesamt hab ich mich schon gewundert, ob ein Insider wie Sweeny sich nicht richtig auskennt, aber da könnt er wohl auch einfach aus Loyalität zu nvidia gehandelt und wider besseren Wissen irgendwas Negatives gesagt haben.
 
@Opteron: Man kann Sweeneys Unvoreingenommenheit natürlich anzweifeln.
Aber, was ist dieser "Hessian Kernel" auf Deiner Folie? Vermutlich nur "Compute", ohne Grafik-Shader. Damit aber nicht für die Spieleprogrammierung auf Konsolen relevant (bzw. nur ein Teil der Wahrheit).

Sonys neue Playstation Shader Language (PSSL) ist dann vermutlich auch noch brandneu - hat also auch noch nicht beweisen können, dass es damit wirklich einfacher und schneller zu programmieren geht (für komplette Spiele). Ist jedenfalls ein spannendes, sich entwickelndes Feld.
 
@Opteron: Man kann Sweeneys Unvoreingenommenheit natürlich anzweifeln.
Aber, was ist dieser "Hessian Kernel" auf Deiner Folie? Vermutlich nur "Compute", ohne Grafik-Shader. Damit aber nicht für die Spieleprogrammierung auf Konsolen relevant (bzw. nur ein Teil der Wahrheit).
Naja, das Compute ist aber genau ne Sache, auf die die Spieleentwickler scharf sind, steht auch oben verlinkten heise Artikel zu PSSL:
Zudem könnten die GPGPU-Berechnungen simultan zu den Grafikberechnungen ausgeführt werden, was auf PCs derzeit nicht möglich sei.

Schau Dir mal das Spiel Knack an, da sieht man das relativ gut, die ganzen Einzelteilchen aus der die Spielfigur besteht werden einzeln berechnet (stand mal irgendwo, wenn ich nichts verwechsle ^^)

https://www.youtube.com/watch?v=caPNRZmBH8g
 
allerdings ist bei dem 32 MB großen eDRAM Speicher, der auf dem gleichen Stück Silizium untergebracht ist, kein Kohärenzzugriff vermerkt
Was genau soll dann der schwarze, relativ dünne Pfeil vom eDRAM Bus zum CPU SI darstellen, neben dem dann steht "any DRAM data can be coherent with CPU caches" (Bild SoC Components). Klingt für mich schon so, als wäre da eine Kohärenz, aber vielleicht verstehe ich den Pfeil falsch???
 
Was genau soll dann der schwarze, relativ dünne Pfeil vom eDRAM Bus zum CPU SI darstellen, neben dem dann steht "any DRAM data can be coherent with CPU caches" (Bild SoC Components). Klingt für mich schon so, als wäre da eine Kohärenz, aber vielleicht verstehe ich den Pfeil falsch???

Das DRAM bezieht sich auf den DRAM-Controller darunter in dem die grünen und blauen Pfeile vom GPU bzw. CPU-Mem-Controller reingehen. Vom Aufbau her identisch zu Trinity.

Der dünne Pfeil ist schon ein ziemliches Kuriosum, irgendwie wird da vermutlich noch ein Zugriff möglich sein, aber ob das kohärent sein wird ist die große Frage. Eher nicht, denn der Pfeil geht nicht zum blauen Kohärenzblock, sondern zu nem Pfeil zwischen jenem und den CPUs. Wenn man die Dicke als bandbreitenindikator nimmt (was nicht stimmen muss), dann wäre das Ding auch recht schmalbandig. Eventuell ist auch eine bestimmte feste Größe, wie jetzt bei den aktuellen UMA-Systemen für die CPU vorgesehen, eben als Austauschfenster, das wäre auch noch möglich. Im Unterschied zu aktuellen APU-Systemen aber halt den Großteil des edRAM-Speichers für die GPu und nur 1MB oder so für die CPU. Je nachdem was man halt braucht. Aber ohne genaue Daten ist das auch schwer zu sagen. Mal schauen, was im Paper steht, wenns mal öffentlich wird.

So oder so, das Argument bleibt, wenn der Chip hUMA könnte, hätten sies ganz sicher gesagt ... die hot chips ist schließlich keine Erstsemester Belustigungsveranstaltung.
 
Naja, das Compute ist aber genau ne Sache, auf die die Spieleentwickler scharf sind, steht auch oben verlinkten heise Artikel zu PSSL:

Das Problem wird wohl sein das PSSL nicht überall vorhanden ist und AMP C++ wohl auch nicht und HSAil hat noch keine Finale Spezifikation. Eine Platformunabhängige Programmierung geht halt noch nicht und mehr sagt er nicht im endeffeht beklagt er sich darüber das die SW Unterstützung fehlt, was wohl das einzige Haar in der suppe ist das er ohne was zu erfinden finden konnte, sonnst wäre sicher was konkreteres genannt worden.
 
Erstmal vielen Dank an Opteron für den sauber verfassten Artikel und die interessanten sachlichen Beiträge!

Was könnte denn die Motivation für Microsoft gewesen sein, hier trotz ähnlicher Komponenten und weitestgehend gleichem Pool an Funktionsbausteinen ein eigenes Süppchen zu kochen, das trotz relativ hoher Chip-Größe im Vergleich zur PS4 bereits jetzt weit zurückliegt, was die zu erwartende Performance betrifft? Liegt die Priorität dabei auf einem möglichst effizienten und für den Kunden idealerweise lüfterlosen Betrieb?
 
Was könnte denn die Motivation für Microsoft gewesen sein, hier trotz ähnlicher Komponenten und weitestgehend gleichem Pool an Funktionsbausteinen ein eigenes Süppchen zu kochen, das trotz relativ hoher Chip-Größe im Vergleich zur PS4 bereits jetzt weit zurückliegt, was die zu erwartende Performance betrifft?
Das liegt und fällt mit der Speicherentscheidung DDR3 <> GDDR5. DDR3 ist billiger, GDDR5 ist teurer, aber Microsoft musste sparen, da Ihr Kinect-Zeugs ~100 Dollar kostet.
Deshalb muss die Konsole selbst billiger werden. Deshalb haben sie sich für DDR3 entschieden, was selbst mit Quad-Channel keine gute Speicherbandbreite hat, also haben sie noch eDRAM draufgepappt um das etwas auszugleichen, was dann wiederum aber (vermutlich) hUMA und mehr GPU-Shader geopfert hat.
 
Microsoft hat ja schon einmal durchblicken lassen, dass "Casual Games" die neuen Goldesel sind. Die meisten dieser "Casual Games" sind jedoch eher einfach gestrickt und graphisch nicht sehr anspruchsvoll. Es sind vielfach Low Budget Projekte. Insofern ist es eigentlich nur konsequent die Konsole darauf auszurichten. Sony sieht wohl weniger Potential in den "Casual Games" und ich hoffe sie behalten damit Recht. Ich würde Sony einen Erfolg der Playstation 4 jedenfalls gönnen und es sieht zur Zeit ganz danach aus als könnte sie größere Marktanteile erobern. Allerdings sollte man nicht vorschnell über die Fähigkeiten der beiden Konsolen urteilen. Das wird frühestens im Jahr 2016 möglich sein. Vieleicht ist die Xbox One doch nicht derart unterlegen wie oft gemutmaßt wird. Man kann nicht einfach die Shaderanzahl, Speicherbandbreite, Taktfrequenzen stur zusammen zählen.
 
Also Kinect im Tradeoff gegen Performance/Fläche?
Jein, eigentlich schon, aber für das DDR3 haben sie ja 32MB eDRAM aufs Die holen müssen, was die Fläche wieder vergrößert.

@Spina: Ja, aber eben aus dem Grund versteh ich die schlechte Zusammenarbeit mit den Indi-Entwicklern auch nicht. Also MS macht da ziemlich viel Mist ... teilweise sind ja zurückgerudert, aber naja, ob das noch was wird ...

Die PS4 ist jetzt relativ simpel zu programmieren, im Vergleich zur PS3 ein Kinderspiel. Da seh ich eigentlich überall die PS4 vorne. Kinect ist nett, aber oversized, für einfache Sachen wird die PS4-Kamera auch noch reichen.
 
Wenn Du den Artikel wirklich aufmerksam und Satz für Satz liest und den ganzen Rauch der zahlreichen Nebelkerzen beiseite schiebst - nein, genau das ist es was sie nicht sagen.
 
Zurück
Oben Unten