News AMD lässt mit Radeon R9 Fury X die erste Grafikkarte mit HBM vom Stapel

Zum Thema 4 GB Speicher könnten eng werden - hier hat CB interessante Tests und Ergebnisse die eigentlich belegen, dass dies kein Problem darstellen wird. Auch wenn CB mal wieder in ihren Fazits am Ende das Gegenteil von ihren Testzahlen schreibt^^

Computer Bild Base eben.Freut mich aber,das die 4GB Bashkritiker zwischen die Beine getreten wurden.Zwar versuchen sie jetzt die "4GB in der Zukunft zu wenig" Karte auszuspielen,übersehen aber das eine tolle 6 GB-980er da mindestens genauso abstinken würde.
 
Das Geld steht schon bereit, es fehlt nur noch die 8 GB Variante.

Es wird keine 8GB Variante geben.
Da wirst du wie alle anderen auf HBM2 warten müssen. (und 14nm) - vor 2016 wird sich da aber nichts regen.

Im Übrigen scheinst du in den Zaubertrank Kessel gefallen zu sein, bei der überschwenglichen Begeisterung.

Gruß
skell.
 
Mal ne blöde Frage. Vielleicht habe ich was verpasst, aber keiner hat Mantel getestet auf der Fury.
Oder kann die Fury Mantel nicht?
 
wolle23 schrieb:
Es wurde quasi eine Revolution, eine neue Sphäre angekündigt
Wer hat das denn so angekündigt? Sicher, dass es AMD war? Oder bist du nur auf die jedes Mal wieder herausgekramte Karte, unerfüllbar hohe Erwartungen vor AMD-Releases zu wecken, [Beginn der Ironie] während bei Nvidias Vorstellungen immer alle Wünsche übertroffen werden - versteht sich doch von selbst - [Ende der Ironie], reingefallen?
 
Mal ne blöde Frage. Vielleicht habe ich was verpasst, aber keiner hat Mantle getestet auf der Fury.
Oder kann die Fury Mantle nicht?

Mantle kann sie, hat nur keiner getestet. Habe in anderen Foren diesbezüglich gelesen, dass man das nicht gemacht hat, weil die Vergleichbarkeit mit den nVidia Karten nicht gegeben gewesen wäre, bla bla.

Gerade im Hinblick auf DX12 hätte man das sehr gut als extra Aufhänger bringen können. Chance vertan..
 
Mantle kann sie, hat nur keiner getestet. Habe in anderen Foren diesbezüglich gelesen, dass man das nicht gemacht hat, weil die Vergleichbarkeit mit den nVidia Karten nicht gegeben gewesen wäre, bla bla.

Gerade im Hinblick auf DX12 hätte man das sehr gut als extra Aufhänger bringen können. Chance vertan..

Für einen ECHTEN DX12 Test hätten die aber alle Win10 nehmen müssen. Mich würde es Interessieren wie sich die Karte dann schlägt.
 
Mal ne blöde Frage. Vielleicht habe ich was verpasst, aber keiner hat Mantel getestet auf der Fury.
Wäre dies denn praxisgerecht? Aus den von AMD angekündigten "hunderten" Titeln mit Mantle Unterstützung ist bisher noch nichts geworden. Derzeit kann man sie an einer Hand abzählen. Außerdem befindet sich Mantle nun zugunsten von Diret3D12 und Vulkan auf dem Abstellgleis und wurde auf die Entwicklerschiene geschoben. Insofern hat Mantle einfach keine Zukunft (bei Spielen von der Stange) mehr. Man kann sagen, dass AMD seinen Alleingang dem größeren Wohl geopfert und damit dem Markt einen Dienst erwiesen hat. Allerdings leben Teile von dieser API in Vulkan weiter. Vulkan wurde jedoch an entscheidenden Stellen aufgebohrt und bietet mit SPIR-V zum Beispiel obendrein eine Zwischensprache, die zwischen verschiedenen Laufzeitsystemen übersetzen kann. Vulkan ist damit nicht mehr auf HLSL festgenagelt, wie Mantle. Vulkan ist sozusagen ein "SuperOpenMantle".

Ich frage mich angesichts des Radeon R9 Fury X Launchs, wieso sich kein Reviewer von den HBM Vorzügen durch synthetische Benchmarks überzeugt hat. Es wäre kein Hexenwerk gewesen ein OpenCL Programm zu schreiben, welches mit unterschiedlichen Pattern die deutlich über GDDR5-RAM liegenden IOPS-Werte von HBM ermittelt. So hätte man handfeste Werte über die man debattieren kann, anstatt indirekte Schlüsse ziehen zu müssen.
 
Zuletzt bearbeitet:
Vor allem kann es sein, dass dort eben der HBM Speicher seine Stärken wie z.B. das separate runter takten von nicht benötigten Speicherbausteinen noch besser ausspielen kann. Das Speichermanagement ist deutlich segmentierter unter Mantle/DX12.

Merkwürdig, dass AMD im Review Guide nicht wenigstens ein, zwei Spiele zur Vergleichbarkeit gefordert hat.

Weniger merkwürdig ist, dass BF4 aus dem Testparcours bei CB raus geflogen ist rechtzeitig vor dem GTX 980 Ti Launch und ein neues Testsystem eingeführt wurde. Und prompt haben sie ja die Fury auf diesem Standard Mainboard mit Z87 Chipsatz nicht zum laufen gebracht und mussten ein anderes nehmen mit Z97 Chipsatz.
Der Grund warum BF4 raus genommen wurde war die angebliche CPU-Limitierung, anstatt eben mit Mantle im Vergleich den Unterschied zu zeigen geht es nur um Benchmark Balken. Ich frage mich was diese Reviews nützen wenn man immer den kleinsten gemeinsamen Nenner sucht anstatt die Unterschiede und Vor- sowie Nachteile dieser aufzuzeigen. Wäre wohl eigene Denkarbeit notwendig.
 
Zuletzt bearbeitet:
Zu Mantle-Tests: Laut Aussage von einem Linux-Treiber-Tester im 3DC klingt es so, als würde der "alte" Stand der Frostbyte-Engine, wie er in BF4 verwendet wird, bei Fiji und Tonga ohnehin in einen langsameren Fallback-Modus von Mantle verfallen (Quelle). Ob und welche Vorteile dieser gegenüber DX11 bei langsameren CPUs hätte, müsste man wirklich noch testen.

Ich hoffe auf tiefergehende Reviews, evt sogar schon mit neueren Treibern, in der kommenden Zeit nach den ersten paar Schnellschüssen.
 
Zuletzt bearbeitet:
Das wurde hier untersucht von Anand:
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/6
ab dem Update lesen, das Oxide Games auf Rückfrage geliefert hat:
Oxide Games has emailed us this evening with a bit more detail about what's going on under the hood, and why Mantle batch submission times are higher. When working with large numbers of very small batches, Star Swarm is capable of throwing enough work at the GPU such that the GPU's command processor becomes the bottleneck. For this reason the Mantle path includes an optimization routine for small batches (OptimizeSmallBatch=1), which trades GPU power for CPU power, doing a second pass on the batches in the CPU to combine some of them before submitting them to the GPU. This bypasses the command processor bottleneck, but it increases the amount of work the CPU needs to do (though note that in AMD's case, it's still several times faster than DX11).
71461.png


71462.png
 
Ich frage mich angesichts des Radeon R9 Fury X Launchs, wieso sich kein Reviewer von den HBM Vorzügen durch synthetische Benchmarks überzeugt hat. Es wäre kein Hexenwerk gewesen ein OpenCL Programm zu schreiben, welches mit unterschiedlichen Pattern die deutlich über GDDR5-RAM liegenden IOPS-Werte von HBM ermittelt. So hätte man handfeste Werte über die man debattieren kann, anstatt indirekte Schlüsse ziehen zu müssen.
Ich hoffe mal sie basteln noch am GPGPU Teil im Treiber, hier gibt es ein kleinen Vorgeschmack: http://www.redgamingtech.com/amd-radeon-fury-x-features-4096-shaders-opencl-performance-leaked/
Die Werte sind allerdings vor dem Release entstanden.

Mantle Spiele wurden wohl nicht von den Redaktion genutzt, da man sonst nvidia böse aussticht...
 
Mantle Spiele wurden wohl nicht von den Redaktion genutzt, da man sonst nvidia böse aussticht...

Wie kommst du drauf ;DAuch unter DX12 ist eine R9290X schneller als ne GTX 980.
nVidia ist halt unter DX11 schneller, jetzt abwarten bis die ersten Spiele in DX12 rauskommen.
Dann schauts anders aus und dann kommen Aussagen MS hat AMD unter die Arme geholfen bezüglich Optimierung.
Es ist egal was AMD macht es wird immer gejammert und niedergemacht.
Wenn man berücksichtig und das sage ich immer wieder Budget für die Forschung gegenüber Intel & NV ist AMD von den Innovationen und Idee Lichtjahre voraus!
 
Dann schauts anders aus und dann kommen Aussagen MS hat AMD unter die Arme geholfen bezüglich Optimierung.
Es ist egal was AMD macht es wird immer gejammert und niedergemacht.
Wenn man berücksichtig und das sage ich immer wieder Budget für die Forschung gegenüber Intel & NV ist AMD von den Innovationen und Idee Lichtjahre voraus!

*great*
 
cht.
Wenn man berücksichtig und das sage ich immer wieder Budget für die Forschung gegenüber Intel & NV ist AMD von den Innovationen und Idee Lichtjahre voraus!

Wenn man das lesen würde bevor man es abschickt würden die Leute der meinung vll. eher folgen... Wer das liest bricht sich ja die Hirnwindungen...
 
Mantle kann sie, hat nur keiner getestet. Habe in anderen Foren diesbezüglich gelesen, dass man das nicht gemacht hat, weil die Vergleichbarkeit mit den nVidia Karten nicht gegeben gewesen wäre, bla bla.

Gerade im Hinblick auf DX12 hätte man das sehr gut als extra Aufhänger bringen können. Chance vertan..

Das ist unfassbar!!! Was für ein Blödsinn.

Mantle ist definitiv ein Mehrwert. Warum sollte ich es als AMD-Kunde nicht einsetzen? Damit sich nVidia nicht benachteiligt fühlt? Was ist das für ein Blödsinn...
Mantle gehört zu einem Test dazu! Und im Übrigen kommt auch niemand auf die Idee Gamework-Titel aussenvorzulassen. Hat man es nur mit Idioten zu tun?
 
... Aus den von AMD angekündigten "hunderten" Titeln mit Mantle Unterstützung ist bisher noch nichts geworden. Derzeit kann man sie an einer Hand abzählen. ...


Ich nehme mal die Herausforderung an:

Battlefield 4
Battlefield Hardline
Dragon Age: Inquisition
Plants vs Zombies: Garden Warfare
Sid Meier’s Civilization: Beyond Earth
Sniper Elite 3
Thief

Wo ich noch keine offizielle Bestätigung gesehen habe (sind aber auch Frostbite 3 Titel):
Star Wars: Battlefront
Plants vs Zombies: Garden Warfare 2

Ist schon mal mehr als eine Hand voll ;)
 
Es wird keine 8GB Variante geben.
Da wirst du wie alle anderen auf HBM2 warten müssen. (und 14nm) - vor 2016 wird sich da aber nichts regen.

Im Übrigen scheinst du in den Zaubertrank Kessel gefallen zu sein, bei der überschwenglichen Begeisterung.

Gruß
skell.

Es gibt erste böse Gerüchte, das HBM2 auch noch nicht 2016 kommen wird.... Man scheint in der Entwicklung davon noch nicht so weit zu sein, wie viele in den Namen HBM2 rein interpretieren....

Was mich bis jetzt am meisten verwundert AMD hat die Karte als Heaven für Overclocker gepriesen. Bis jetzt waren nicht mehr als 13% drin...
Aber noch ist Overvolting nicht möglich - dabei gibt es das Board her 400Ampare, die Stromversorgung 2x 8 Pin und die Kühlung - der Radiator soll wohl bis 500 Watt abführen können....

Laut Revs liegt die GPU Temp bisher bei um 50 Grad, aber im Max soll sie 75 Grad abkönnen....
Was mich stutzig macht - 10% mehr Takt resultiert im Schnitt in 5% mehr Leistung in Games [ist das normal? - oder limitiert hier das relativ kleine Front-End?]

--- Update ---

Mal ne blöde Frage. Vielleicht habe ich was verpasst, aber keiner hat Mantel getestet auf der Fury.
Oder kann die Fury Mantel nicht?

Hier hat wenigstens einer beim overclocking auch Mantle getestet - DX Ergebnisse stehen weiter oben.

http://semiaccurate.com/2015/06/24/overclocking-amds-fury-x/
 
Wie sieht es mit Die Sims 4 aus, welches hier auch gelistet wird? Und ist The Rise of the Tomb Raider mittlerweile erschienen?
https://de.wikipedia.org/wiki/AMD_Mantle#Unterst.C3.BCtzende_Spiele


Was mich bis jetzt am meisten verwundert AMD hat die Karte als Heaven für Overclocker gepriesen. Bis jetzt waren nicht mehr als 13% drin...
a) Man meinte Fury, nicht Fury X.
b) Die an die Redaktionen verschickten Exemplare sind aus der frühen Fertigung und dementsprechend weniger OC-freudig.
c) Die Furys werden lange am Markt bleiben, sodass mit der Zeit noch einige Anpassungen erfolgen können, darunter Fertigungsverbesserungen und Spannungsfreigabe.
d) eine Kombination aus mehreren der vorstehenden Punkte

limitiert hier das relativ kleine Front-End?
Am meisten limitiert DX11.
 
Zuletzt bearbeitet:
Mal ne blöde Frage. Vielleicht habe ich was verpasst, aber keiner hat Mantel getestet auf der Fury. Oder kann die Fury Mantel nicht?
Fury X kann freilich Mantle.

Mantle kann sie, hat nur keiner getestet. Habe in anderen Foren diesbezüglich gelesen, dass man das nicht gemacht hat, weil die Vergleichbarkeit mit den nVidia Karten nicht gegeben gewesen wäre, bla bla.
Bullshit zum 1sten.

Mantle Spiele wurden wohl nicht von den Redaktion genutzt, da man sonst nvidia böse aussticht.
Bullshit zum 2ten, vor allem weil Mantle im Grafik-Limit eh kaum bis nichts bringt. Höchstens die 1080p-Werte sähen besser aus.

Die meisten Tester hatten die Fury X nur 2T oder weniger Zeit. Mantle-Frostbite-Titel wie BF4 oder DAI kann man nicht "einfach so" benchen, für Mantle muss man per Console fummeln und mit Skripten arbeiten, was unheimlich viel Zeit kostet und nicht direkt mit Fraps vergleichbar ist. Muss man also alle Karten (auch Geforces) per Console testen und dann hockt man alleine für fünf Karten in drei Settings in einem Mantle-Titel mehrere Stunden am PC. Einfacher ist's freilich wenn man integrierte Benches nimmt wie S|A mit Civ BE und Sniper Elite 3 ... aber die haben mit dem eigentlichen Spiel wenig zu tun.

Die an die Redaktionen verschickten Exemplare sind aus der frühen Fertigung und dementsprechend weniger OC-freudig
Bullshit zum 3ten. Die derzeit im Handel erhältlichen Fury X (u.a. Alternate und Caseking) gehen genauso schlecht wie die Review Samples.

Am meisten limitiert DX11.
Nö, Frontend - siehe 4K vs 1080p.
 
Wo wir schon beim Thema Bullshit sind....
Ich habe mir inzwischen das eine oder andere Review durchgelesen und muss sagen das da vom Unterhaltungswert her echte Kracher mit dabei sind.
Am besten hat mir bisher die Formulierung gefallen das die Fury bei geringeren Auflösungen stärker einbrechen würde gefallen. Mal ehrlich....ich habe noch nie erlebt das eine Karte die entlastet wird einbrechen würde. Wären die Rollen vertauscht würde es wohl heißen das die AMD Karte bei hohen Auflösungen stärker einbrechen würde, gelle? *buck*
 
Zurück
Oben Unten