R1000 Spekulationsthread

Komplexe Hardware: AMD hat neue CPU Kerne, erstmals eine GCN GPU (vermutlich auch komplett neu - GCN1.1 - passend zum R1000 Thread) und ein GDDR5 Speicherinterface in eine APU gegossen. Das sind alles neue Komponenten. ich verstehe nicht, warum das bei Intel komplexer wäre.
Weil das lediglich 2 Komponenten sind. CPU für GP Aufgaben und iGPU für Grafik/Parallel-Computing. Du willst mindestens 3 Komponenten, CPU für GP Aufgaben, iGPU für Grafik und Larrabee für Parallel-Computing. Und das wird einfach zu komplex, zu kostspielig und zu ineffizient. Die einzig sinnvolle Option, du eliminierst eine Komponente. Entweder bringst du Larrabee Grafikfähigkeiten bei. Was schon mal gescheitert ist und vermutlich auch in Zukunft scheitern würde, da die Architektur auf x86 GP-Kernen basiert und zu ineffizient für Spezialaufgaben ist. Oder du bohrst die aktuelle IGP weiter auf für mehr Parallel-Computing. Was schlichtweg sinnvoller wäre für Client-Lösungen. Larrabee und seine Nachfahren sind einfach andere Geschütze für andere Märkte. Da geht es eher um "Cluster-on-a-Chip" Forschungen.

Auch da bin ich kein Experte, aber Profiler für DirectX und OpenCL und ne Menge anderer Tools scheint es von Intel zu geben. Keine Ahnung, wie die im Vergleich zu AMDs Tools sind.
Was es gibt und was nicht, sagt doch nicht viel über den eigentlichen Support der Spezifikation. Und da hinkt Intel immer noch hinterher. Auch wenn sich schon etwas getan hat. Profiler und andere Tools gibt's übrigens auch von AMD schon länger.

Zu Larabee/Xeon Phi: Bei R1000/GCN1.1/PS4-APU wurde die Architektur angeblich in der Richtung erweitert, dass mehrere "Threads" auf der GPU laufen können, und unabhängig ganz verschiedene Sachen berechnen können. z.B. Physik in OpenCL neben den Grafik-Shadern
Wenn man diesen Ansatz etwas weiter fasst, kann man sich folgendes Szenario vorstellen: die GPU-Shader berechnen nur noch Grafik-Shader, OpenCL "Geräte" berechnen Physik, Kollisionen, 3d-Audio,...
Diese OpenCL "Geräte" können leistungsstarke GPGPUs (AMD GCN), CPU-Kerne, oder auch Xeon Phi/ Larabee Recheneinheiten (Intel). Das ist dann dank OpenCL austauschbar.
Im Extremfall kommt vielleicht doch noch das Echtzeit-Raytracing, und dann braucht man nur noch eine Grafikausgabe mit starken Recheneinheiten dahinter (also ne VGA-Karte aus dem Jahr 2000 und ein leistungstarkes OpenCL "Gerät").
Siehe oben. Die Aufteilung ist in der Theorie kein Problem. Problematisch wird es aber bei der praktischen Umsetzung. Siehe zB HSA und der gemeinsame Adressraum. Das ist schon zwischen zwei Komponenten nicht ganz trivial. Bei 3 oder mehr steigt die Komplexität noch weiter an. Und nochmal, du musst bei Endgeräten für Konsumenten immer die Kosten im Auge behalten. Dein Ansatz ist einfach viel kostspielig. Übrigens, ich glaube auch für Echtzeit-Raytracing sind spezielle Berechnungseinheiten effizienter im Vergleich zu GP-Kernen wie bei Larrabee. Also selbst wenn Spiele in einigen Jahren auf Raytracing setzen sollten, muss CPU+Larrabee noch lange nicht konkurrenzfähig gegenüber CPU+iGPU sein.

Gemeinsamer SpeicherZugriff: Da gibts ja nen Software- und HardwareAspekt. Gemeinsamer Speicherzugriff von CPU und GPU ist auch für Nvidia und Intel im HPC-Bereich (high performance computing) ein wichtiges Thema - sprich, auch die arbeiten da dran und treiben die Techniken voran.
AMD hat evtl. momentan einen Vorteil in der Latenz bei den Speicherzugriffen, weil alles auf einem Die sitzt (HSA).
Bei PCIe3 ist die Bandbreite auch recht hoch, aber die Latenz sicher schlechter.
Andererseits hat Intel auch Multi-CPU-Architekturen (Xeon), wo CPUs mit geringer Latenz und großer Bandbreite kommunizieren. Und für die Haswell GT3 GPU wurde sogar über stacked memory spekuliert.
http://www.heise.de/newsticker/meld...n-mit-eingebautem-Grafikspeicher-1704848.html
Damit könnte vermutlich auch die Performance des GDDR5 Speicherinterfaces der PS4-APU erreicht werden.
Also auch in dem Bereich hat Intel die notwendige Technologie am Start.
Nein, haben sie im Moment nicht. Was bei Haswell Spekulation bleiben wird und was nicht, wird man erst noch sehen. Mal davon abgesehen ist das nichts, was Intel exklusiv hätte. Bei AMD wird schon lange über Stacked Memory spekuliert, samt Prototypen.

Das die Intel GPU heute zu wenig Performance hat, ist für mich ein plausibles Argument, warum sie es nicht in die PS4 und XBox720 geschafft haben. Auch bei den GPU-Treibern sind sicher noch große Defizite.
Aber, auf diesen Gebieten ist Intel ordentlich am pushen. Deshalb denke ich, dass sie bei den nächsten Spielekonsolen von der Partie sein könnten.
AMD pusht da genauso, wenn nicht sogar mehr. Da fällt es schwer zu glauben, dass Intel eine gleichwertige oder gar besser Option für die PS4 / XBox 720 Nachfolger wäre. Erst recht bei dem, was du dir so vorstellst, basierend auf Intels Tera Scale Projekt. Zumal die Konsolenzyklen kürzer werden sollen, <5 Jahre.
 
Da lag ich womöglich letztens recht gut mit meiner Spekulation, dass aktuell die 28nm-Wafer-Preise fallen könnten, wie nun auch digitimes spekuliert:

"...The available capacity for 28nm mobile chips at IC foundries, mainly Taiwan Semiconductor Manufacturing Company (TSMC), has become sufficient to meet demand since early 2013. Suppliers of 28nm mobile chips, such as Qualcomm and MediaTek, have now gained bargaining power in price negotiations with their contract manufacturers, particularly backend service providers, according to industry sources..."

Womöglich nutzt AMD bereits die Gunst der Stunde.
 
Angeblich realistische Haare für Lara Croft per GPU compute (OpenCL? ;-)

Richtig! ... und es sieht nett aus.

Quelle
blogs.amd.com/play/tressfx/
tress_before_after3.jpg
 
War bei Batman ein großer Physx Performance Fresser nicht das flatternde Cape? *suspect*
 
Aber AMD scheint hier mal wieder auf offene Standards zu setzen, im Gegensatz zu Nvidias Physx-proprietärmist.
 
Ach komm...bei den alten Tomb Raider Teilen hatte sie noch deutlich mehr. ;)

@isigrim
Mich wundert ein wenig das Direct Compute benutzt wird, da nvidias GPUs von der GPGPU Leistung her hier deutlich besser mitzuhalten scheinen.
Aber es ist gut möglich das man den Abstand nicht zu gross werden lassen will, damit sich das Feature besser verbreitet. Eine zu einseitige Leistungsentfaltung wird aber auch nicht im Interesse des Spiele Herstellers sein.
 
DirectX und DirectCompute ergänzen sich wohl besser. OpenCL wäre für OpenGL eine gute Wahl. Aber ich finde man sollte AMD mal sehr loben, dass die sich da wirklich treu bleiben und den offenen Weg fahren. Ich bin nun kein Fan von flatternden Haaren und solchen Dingen, aber besser man kann es offen nutzen, als dass man es als exklusiv-Feature vermarktet. Batman war wirklich unter aller Sau was das angeht (ein tolles Spiel ansonsten), vor allem, wenn sowas dann mit in die Benchmarkparcours wandert.
 
Sicherlich haben sie dafür Lob verdient allerdings denke ich auch das sie dafür vor allem die Verbreitung im Auge haben wärend nvidia Physx in Sachen Durchsetzung seit Jahre mit dem CUDA Zwang gegen die Wand fährt.
Unfreiwillig witzig sind an der Stelle aber (z.B. bei computerbase) einige Bemerkungen der nvidia Gemeinde bei den Kommentaren.

Ich für meinen Teil bin jedenfalls gespannt was bei dem Spiel raus kommt.
Vielleicht hole ich mir ja (seit seeehr langer Zeit..) mal wieder einen Teil der Serie. :)
 
Ich bin nun kein Fan von flatternden Haaren und solchen Dingen
Nun, wenn es übermäßig genutzt wird, dann ist es auch Quatsch. Aber bisher waren die Spielfiguren ja immer mit einem reichlich unrealistischen Haarteil beklebt, oder sie hatten irgendwas ganz festes, einen Dutt oder einfach Glatze. Etwas realistischere Haare wäre schon sehr sinnvoll, gerade in 3rd-person-Spielen schaut man ja immer drauf.

Außerdem kann man das ganze ja auch für alles andere nutzen, was sich ähnlich verhält, z.B. Vegetation (Gras, Farnwedel etc.) oder auch runterhängende Kabel, Spinnweben usw.

Ich hoffe nur, daß das Verfahren auch relativ leicht anwendbar ist, damit es auch für kleinere, vermeintlich unscheinbare Dinge genutzt wird.
 
Das ist jetzt zwar ziemlich OT und das letzte, dass ich etwas mehr gespielt habe - und selbst das nur im Singleplayer - war Crysis 1, aber was mich noch immer enttäuscht hat, war der Boden. Hat sich das mittlerweile geändert und es gibt Umsetzungen, wo dieser nicht mehr so aussieht irgendwas mit aufgeklebten Texturen? Ich meine, Wasser sieht schon oft sehr hübsch aus, dies "haarige Sache" finde ich auch schon sehr gelungen, aber ein Schotterweg/-boden bzw. Steine etc?!

LG

Nachtrag:

Die Böden schauen z.B. sehr hübsch aus :)

http://facepunch.com/showthread.php?t=964126

Wahrscheinlich scheitert es einfach schlicht noch immer an der Grafikperformance?

Nachtrag 2:

Saucoole Technik - danke für den Hinweis (die zwei Posts unterhalb) und vorallem auch für ausgeschriebene Variante :)

Und nun wieder genug OT von meiner Seite
 
Zuletzt bearbeitet:
Das Ganze POM auf dem Boden kostet sehr viel Leistung.
Ey Parallax occlusion mapping sollte man schon noch ausschreiben, in einem Ein-Zeiler. POM ist nicht so gebräuchlich.

zu tressfx
Haare sehen gut aus. Bin mal gespannt, ob auch nasse Haare simuliert werden und wieviel Leistung das kostet.
 
Ich kannte POM bisher nur in Verbindung mit FRITS ;)
 
Eh 6144 MB und 512 bit ist pupu, wenn dann 2x 384bit. Ansonsten ist das halt einfach eine 7990, oder? Da ist wenig überraschendes, außer vielleicht, dass die DP-Leistung (Flops) deutlich höher sein müsste. Alles in allem ist das nicht nur nicht seriös, sondern falsch.

Aber mal eine andere Frage: Wieso sollte AMD eine GPU Malta nennen? ;) (Mir ist bewusst, dass Malta auch eine Insel ist, aber diese Homonymie dürfte doch kein Zufall sein...oder?)

Weiß jemand, ob ein Teil der GPU-Produktion inzwischen doch von GloFo kommen soll?
 
Zuletzt bearbeitet:
Zurück
Oben Unten