Playstation 4 und XBox sind laut Charlie HSA Devices

Emmerdeur

Commodore Special
Mitglied seit
26.10.2010
Beiträge
363
Renomée
8
Spiele werden in neue Dimensionen vorstoßen und die APU-Strategie Amds würde sich als richtig erweisen.

Stellt euch vor, die geilsten neuen Spiele benötigten eine APU. Sorry Intel....

Wollts nur anstoßen. HSA wäre mit einem Schlag der GameChanger. Herbst 2013 sollten beide Konsolen käuflich erwerbar sein..

Ihr seid dran...
 
Von Sony habe ich HSA eigentlich schon erwartet. (Bei X-Box war ich mir recht unsicher, weil er eine IBM-CPU haben soll.)

Denn mit einer Effizienzsteigerung können bei gewünschten Performance-Ansprüche die Hardware-Kosten gesenkt werden.

Es muss nicht nur die Mitnutzen der GPU bei der CPU sein. Ich denke da auch an 3D-Stacking oder eine Big-L3, der Direkt in die APU angebunden ist und somit die Langen Memory-Wege & Co deutlich reduziert werden kann. Oder was es halt noch für Vorteile gibt, die ich/man halt noch nicht kenne.

PS: Aber vielleicht wechselt die X-Box doch noch auf eine AMD-IP-CPU. Schließlich dürfte es detwas/deutlich? leichter sein, einen PC-Game auf eine Konsole zu portieren.
 
Zuletzt bearbeitet:
Du könntest wenigstens den Link zur Headline posten ... http://semiaccurate.com/2012/09/04/microsoft-xbox-next-delay-rumors-abound/

HSA ist übrigens nicht gleichbedeutend mit der Notwendigkeit einer APU, wenngleich zu erwarten ist, dass auch im Desktop-Segment Spiele auf AMD-Prozessoren schneller laufen dürften. Ob das reicht um Intel zu überholen? Warten wir es ab - auch wenn's wohl "gefallen" dürfte.
 
Nun, wie ich schon im anderen Thread spekulierte ist das nicht wirklich überraschend.
HSA ist eine erweiterungsfähige Architektur, theoretisch ließe sich sogar ein CELL-Prozessor wie ihn die PS3 hat HSA-Artig betreiben.
Der Standard beschreibt so wie ich das verstehe nur Methoden mit denen die einzelnen Gerätschaften effizient kommunizieren können sollen.
Dass das zur Zeit meistens mit GPUs assoziiert wird ist eine andere Sache.
Trotzdem ist der Standardisierte Ansatz bei HSA womöglich ein Trumpf, allerdings schließt das Intel keineswegs aus!
Der Punkt ist, dass ich denke schon abseits der Konsolen, bei Mobilgeräten bzw. mobile Games, wird HSA mittelfristig beinah ein Muss werden - dort kann man nicht beliebig die CPU oder GPU aufrüsten, zusätzliche Kerne reinklemmen oder hat genut Platz um gigabyteweise Speicher zu verbauen sodass man munter doppelte Datenhaltung betreiben kann.
Genau hier spielt HSA den effizienztrumpf aus, und der kann bei den Konsolen direkt weiterverwendet werden.
Wenn die Tools dafür mal da sind und entsprechend benutzt werden schlagen die Entwickler mehrere Fliegen mit einer Klappe. - Effiziente Entwicklung für mobilgeräte ebenso wie für Konsolen - und dann ist der PC-Markt auch nicht mehr übertrieben weit weg. *noahnung*
Im Klartext, das was auf eingeschränkten Plattformen die effizienz erhöht, tut auf dem PC auch nicht weh, selbst wenn er die Ressorucen hätte auch ohne die HSA-Features auf akzeptable Performance zu kommen. *noahnung*
Bis das soweit ist, denke ich aber wird intel auch nicht tatenlos daneben stehen und sich selbst ins Abseits manövrieren... sie werden mitspielen müssen - ob es ihnen passt oder nicht.
Inwieweit Intels GPUs dann mit den Radeons mithalten können, steht gleich mal auf einem völlig anderen Blatt geschriben.
Dennoch ist AMD hier sehr gut aufgestellt mit den APUs und den ersten HSA-Fähigen namens Kabini und Kaveri am Horizont.
 
HSA ist übrigens nicht gleichbedeutend mit der Notwendigkeit einer APU,
Trotzdem ist der Standardisierte Ansatz bei HSA womöglich ein Trumpf, allerdings schließt das Intel keineswegs aus!

Das sind genau die Punkte, die ich auch hinzufügen wollte. Die Frage die sich dabei stellt ist, wie groß der Vorteil (ich drücke es mal allgemein aus) der AMD Hardwarebasis gegenüber einem Intel Gegenstück zu dem Zeitpunkt sein wird, wenn HSA in dieser Hinsicht eine nennenswerte Verbreitung erfahren hat. Und wann und ob Intel Hardware überhaupt dazu fähig sein wird - es ist ja im Bereich des Möglichen, dass dies nicht der Fall sein wird, oder?
Bzgl. Intels Grafikbemühigen hätte ich eigentlich keine so großen Fortschritte erwarten. Vor SB war dies gegenüber AMDs und Nvidias Lösungen wirklich Müll, jetzt kann man nicht mehr sonderlich viel prinzipielles aussetzen, außer dass die Leistungsfähigkeit noch hinter AMDs Lösung zurückhinkt - aber eben "nur" im Bereich von Pi mal Daumen einer Generation.
 
Stellt euch vor, die geilsten neuen Spiele benötigten eine APU. Sorry Intel....

Schön blöd wäre der Spielehersteller, der sich nicht daran orientiert, was der Durchschnittsanwender typischerweise für Hardwareresourcen hat. Bin kein Spieler, habe aber gehört, dass es da genauso läuft: es dauert ewig, bis es ein Spiel gibt, das auf die neueren DirectX-Versionen angewiesen ist.
MfG
 
Bzgl. Intels Grafikbemühigen hätte ich eigentlich keine so großen Fortschritte erwarten. Vor SB war dies gegenüber AMDs und Nvidias Lösungen wirklich Müll, jetzt kann man nicht mehr sonderlich viel prinzipielles aussetzen, außer dass die Leistungsfähigkeit noch hinter AMDs Lösung zurückhinkt - aber eben "nur" im Bereich von Pi mal Daumen einer Generation.
Bei HSA geht es doch vornehmlich um die Nutzung der GPGPU Resourcen, die Erweiterung der CPU um parallele Rechenwerke.
Was leistet da die Intel Grafik? Ist es bei GPGPU auch nur eine Generation?
 
Bei HSA geht es doch vornehmlich um die Nutzung der GPGPU Resourcen, die Erweiterung der CPU um parallele Rechenwerke.
Was leistet da die Intel Grafik? Ist es bei GPGPU auch nur eine Generation?


GPGPU sieht für Intel besser aus als in Spielen. Liegt wohl daran, dass die Gen 7 Rechenleistung dort viel besser durchschlägt.
 
Was ist denn "Gen 7"?
 
@fluant Aha, danke
@y33h@ Ähm, was?!?! Ich kann da keinen Sinn herauslesen aus deinem Satz.
 
Die ominöse "Gen 7" oder wie Eurogamer schreibt " AMD 7 series GPU" wurde lange als R700-Derivat (RV740, RV770, RV790 etc) gehandelt - sprich Radeon HD 4770, HD 4870, HD 4890 etc ... Charlie Demerjian von SA behauptet nun, damit sei eine HD7k gemeint - also GCN (Graphics Core Next) alias HD 7770, HD 7870, HD 7970 etc.

LoRDxRaVeN bezog sich aber wohl auf fluant und der sprach von Intel.
 
Mir wäre es neu, dass AMD ihre GPUs mit Gen 7 bezeichnen....wie Charlie das für sich nennt spielt keine Rolle.

Natürlich ging es um Intel. Die bezeichnen das intern bekanntlich als Gen ....5, 6 ,7 und Haswell wäre 7.5.
 
Zu viel getrunken? *chatt*

Wohl eher Wui und XBOX720 verwurstelt. Für die Wui wird auf CB gerade spekuliert ob der Vogelflug eine R700 aka HD4000 oder HD7000 voraussagt.

Zu den Dingen die HSA bringen wird: Da gehört unbedingt noch der Weltfrieden in die Auflistung mit rein!

Kaum zu glauben, was ein Standard zur Integration von Funktionseinheiten alles zu leisten vermag.
 
Zuletzt bearbeitet:
Naja so eine Luftnummer ist HSA nun auch wieder nicht.

Ein wesentliches Merkmal ist der gemeinsam verwendbare Speicher bzw. der gemeinsame Adressbereich, den es in dieser Form bisher nicht gibt.
Das mehrfache memcopy wird dadurch effektiv vermindert/verhindert.

Wer sich HSA schimpfen will muss das wohl implementieren.

Deswegen ist die abfällige Bemerkung über den Weltfrieden unangebracht, denke ich.

lg
__tom
 
Markus' übliche skepsis gegenüber allem was ihn nicht mit einem großen Baseballschläger trifft... *noahnung*

HSA wird GPGPU-Computing endlich von den künstlichen Fesseln befreien, die es durch die Tatsache bekommen hat, dass Grafikkarten PCI-Devices mit eigenem Speicher sind.
Das ist längst überfällig... im Moment haben wir eine Ameisenherde die zum Arbeiten bereitsteht, sich langweilt und der wir über 20 Ecken Arbeit zuteilen müssen. - mit HSA wird das wesentlich vereinfacht und damit die Leistung endlich richtig abrufbar. *noahnung*
Für den Weltfrieden ist die Menschheit zu dumm... für HSA nicht.
 
Markus' übliche skepsis gegenüber allem was ihn nicht mit einem großen Baseballschläger trifft... *noahnung*

HSA wird GPGPU-Computing endlich von den künstlichen Fesseln befreien, die es durch die Tatsache bekommen hat, dass Grafikkarten PCI-Devices mit eigenem Speicher sind.
Das ist längst überfällig... im Moment haben wir eine Ameisenherde die zum Arbeiten bereitsteht, sich langweilt und der wir über 20 Ecken Arbeit zuteilen müssen. - mit HSA wird das wesentlich vereinfacht und damit die Leistung endlich richtig abrufbar. *noahnung*
Für den Weltfrieden ist die Menschheit zu dumm... für HSA nicht.
Wenn das so einfach ist.. warum schafft man es nicht eine moderne CPU mit 8 Threads in Spiele (darum gehts hier im Thread) durchgängig auszulasten?
 
Weil die Spiele für Geräte programmiert werden die a) keine 8 Kerne haben, b) kein HSA beherrschen.
*noahnung*
Definier mal ob wir über jetzt oder über die Zukunft reden..?
Als die PS3 rauskam haben auch einige geunkt dass man es nie im leben schaffen wird den CELL vernünftig auszulasten mit den 6 SPUs und blah....
Mittlerweile scheint das zu gelingen, weil das toolset besser geworden ist.
zudem haben nur wieviel % der clientel einen 8-Threader?
8 Threads bringen auf konsolen nix und für >70% der PC-User ebenfalls nicht. Also warum sollte man?
Der Witz an HSA ist ja aber, dass man das genauso auf der CPU laufen lassen kann.
Ergo "wenn GPU da, benutze sie, else renne auf CPU" - was genau ist daran falsch!? *noahnung*
 
Falsch ist daran nix. Ich wundere mich nur, das sich plötzlich mit HSA die Charakteristik des Workloads ändern soll.
 
Die Workloads sind nicht das problem.. das hab ich aber glaubich schon zum gefühlt 20 milliardsten mal runtergebetet.
Das Problem ist bisher, dass sich das parallelisieren nicht lohnt. Da das umkopieren auf die GPU ohnehin zulange dauert und den zugewinn wieder auffrisst => viel Aufwand für 0 Verbesserung.
Auf der CPU wiederum bringts mehrheitlich auch nichts, weil nur wenige User so viele CPU-Kerne haben.
Ergo, es wird nicht konsequent umgesetzt.
Da auf Mobilgeräten aber vergleichsweise wenig CPU-Leistung zur Verfügung steht, nimmt man das + durch de GPU sicher gern mit, und wenn man mit dem selben Programmierverfahren auch die Kosnolen mit erschlagen kann umso besser.
Das ist eine völlig andere Basis für die Entscheidung sowas zu benutzen als die paar % High-End-Leute von ein paar weiteren % gamern... (zumal letztere schon bewiesen hben dass sie auch bereit sind mehr geld auszugeben für shnelle HW, also erschlägt moores law das problem und die programmierr müssen es nicht tun...)
 
Zuletzt bearbeitet:
Die Workloads sind nicht das problem.. das hab ich aber glaubich schon zum gefühlt 20 milliardsten mal runtergebetet.
Das Problem ist bisher, dass sich das parallelisieren nicht lohnt. Da das umkopieren auf die GPU ohnehin zulange dauert und den zugewinn wieder auffrisst => viel Aufwand für 0 Verbesserung.
Auf der CPU wiederum bringts mehrheitlich auch nichts, weil nur wenige User so viele CPU-Kerne haben.
Ergo, es wird nicht konsequent umgesetzt.
Überzeugt mich nicht.
Da auch ohne umkopieren der Workload auf n-Threads aufgeteilt werden muss.
Was hat die Entwickler bis jetzt abhalten, den Workload mit n_CPU-Threads (n orientiert sich dabei an die CPU-Cores [n>2]) zu bewältigen? Warum solls für den Spieleentwickler mit OpenCL leichter werden den Workload auf eine unbekannte GPU zu parallelisieren?

Da auf Mobilgeräten aber vergleichsweise wenig CPU-Leistung zur Verfügung steht, nimmt man das + durch de GPU sicher gern mit, und wenn man mit dem selben Programmierverfahren auch die Kosnolen mit erschlagen kann umso besser.
Das ist eine völlig andere Basis für die Entscheidung sowas zu benutzen als die paar % High-End-Leute von ein paar weiteren % gamern... (zumal letztere schon bewiesen hben dass sie auch bereit sind mehr geld auszugeben für shnelle HW, also erschlägt moores law das problem und die programmierr müssen es nicht tun...)
Das ist klar, stand auch nicht zur Diskussion.
 
Zuletzt bearbeitet:
Zurück
Oben Unten