News Civilization: Beyond Earth bietet bereits zum Start Unterstützung für Mantle API - Erste Benchmarks [2. Update]

Hast Du mal Dual Graphics deaktiviert? Vielleicht wird es noch nicht unterstützt.



Sind die Übertaktungen noch aktiv? Welches OS nutzt du?

Alles schon probiert, auch die 2te Anzeige vorher deaktiviert.
Die Übertaktungen sind aktiv aber machen ja auch bei anderen Anwendungen keine Probleme
Der gfx core läuft allerdings nur noch bei 800MHz, synchron mit der 7750
Win 8.1 64bit

Gerade versucht den Star swarm test zu starten geht auch nicht mehr...
 
Zuletzt bearbeitet:
Das muss doch Treiberseitig sein, wenn der Star swarm test jetzt mirnichtsdirnichts auch nicht mehr startet...
Der meldet sich im ccc auch als catalyst 14.6, aber alle anderen versionsnummern sind identisch mit denen aus der news vom 14.9.2 beta
 
Aloha :)

Auch hier beim "CPU-Last" schauen im Taskmanager von Windows empfehle ich Perfwatch.
Der Taskmanager zeigt halt leider immer noch Speicherzugriffe des Ram auf die CPU als Last an. Vllt hilft es ein wenig nach dem Problem bei der APU zu suchen.

mfg

Roman
 
Gibt's was Neueres als PerfWatch 2.12? Unter Win 8.1 x64 läuft es mit deaktivierter Treibersignatur nicht.

Du könntest mal den Perfmonitor von CPUID versuchen. Habe mich damit aber noch nie auseinandergesetzt. Sollte aber neuer sein und es werden aktuelle Dinge wie Haswell und Kaveri unterstützt. Bei Perfwatch wurde leider seit 2011 die Seite nicht mehr aktualisiert :(

mfg

Roman
 
Sorry, wenn ich das sagen muss! Aber bin ich froh hier von den Kaveri-Problemen mit Eurem Testsystem zu lesen. Habe mich schon nicht mehr schreiben traun, weil ich schon dachte ich kann mit der heutigen Hardware nicht mehr umgehen und ich bin ganz von der heutigen Technik abgehängt. Darum habe ich auch im Kaveri Thread meine restlichen Erfahrungen nicht mehr, wie eigentlich angekündikt, gepostet. Oder ich hab einfach nur ein schlechtes Händchen was die Hardware angeht.

Also kurz zu meinen Hardware-Möglichkeiten:

2x ASUS A88X-Gamer
2x ASUS A88XM-PLUS
--(Rev.1.01 und Rev.1.03 -> Rev.1.01 läuft Trinity und Richland TOP - ABER mit Kaveri fängt das Board das spinnen an was die Erkennung von Hardware angeht inkl. Kaveri Grafik)--
1x ASUS A88X-PLUS

2x A10-7850K
1x A10-6800K
1x A10-5800K

Grakas:
R7-260X
7750

Am Dienstag trifft von Alternate eine R7-250 von MSI und eine R9-285.

Speicher: Corsair Dominator 8GB Module von 1866MHz bis 2666MHz

Betriebssysteme: Win7 Prof, Win8 & Win8.1

Grunderwartung: War damals ein Spiele tauglicher HTPC bei dem sich, bei Nichtgebrauch, die seperate Graka schlafen legt. Anfangs wurde von AMD ja auch die tolle DEMO gezeigt in dem Kaveri mit einer 290X gepart zusammen arbeiteten. In der Demo mit der Berglandschaft wurde die Physik "angeblich" auf die APU ausgelagert und berechnet. Auf dieser Grundlage habe ich mir damals das A88XM-Plus mit einer R7-260X gekauft.

Dann kam der Kaveri Start und es gab nur die Beta Treiber und von Dual-Graphics war keine rede mehr. Wird nachgereicht hieß es! Damals habe ich dann auch schon die ersten Probleme mit Kaveri und hatte das Board bzw das Bios in Verdacht - wie ich auch im Kaveri-Thread geschrieben hatte! Aus diesem Anlass habe ich mir das 2te Board und ein zusätzlichen Bios-Chip besorgt. Auf dem Board mit der Rev.1.01 spinnte auch trotz des neuen Bios-Chip Kaveri total. Hardware wurde nicht richtig erkannt und auch die Bild Ausgabe über die einzelnen Anschlüsse.
ASUS hat zu meiner Anfrage diesbezüglich nie Stellung genommen! Mit dem Board der Rev.1.03 lief Kaveri dann endlich. Nur mit dem Manko, dass meine Sounblaster ZxR manchmal nicht richtig erkannt wurde und sich anschließend in Geräte-Manager als Recon3Di ausgab. Wobei man immer dazu sagen muss, dass es mit Trinity und Richland im selben System dieses Problem nicht gibt.

Mittlerweile, wie oben angegeben, habe ich 5 Boards hier und das Soundblaster Problem tritt bei allen Boards nun häufiger, bei 90% aller Starts, auf und als Recon3Di läuft die Karte nicht. Um einen Defekt der Karte auszuschließen habe ich mir auch hier eine 2te Karte besorgt! Leider mit dem Ergebnis das die Karten in Verbindung mit einem Kaveri unabhängig vom Board oder Betriebssystem nicht richtig angesprochen werden können. Also flogen die Karten mit viel Frustration raus und ich greife seitdem auf die Onboardlösung zurück.

Zurück zum eigentlichen Problem: Kaveri, Spiele und Dual-Graphics. Anfangs funktionierte Dual-Graphics nicht und so testete ich nur ein wenig mit der integrierten Graphik herum und beneide jeden der es geschafft z.B. 2666er Speicher stabil zum laufen zu bekommen. Bis 2400er, wie bekannt, sind mit Kaveri kein Problem. Und solche Boards wie z.B. das ASUS Ranger sind mir dann doch zu viel des guten. Preis & Austattung steht in keinem Verhältnis mehr auch wenn der 2666er dann stabil laufen sollte. Das Board wirkt mir persönlich auch zu überladen. Naja egal, zurück zu den Spielen. Schnelle Spiele - wie Autorennen sind nichts für Kaveri da der Speicher zu sehr limitiert und die Daten nicht so schnell nachgeschoben bekommt. BF4 auf Kaveri ganz nett, aber dann der Schock. Von Mantle profitiert Kaveri nicht wirklich und anschließend hatte ich dann doch primär die R7-260X in Gebrauch. Bloß so war das ja nicht angekündigt und auch nicht angedacht!

Dann kam endlich der Silberstreif am Horizont! Der erste Catalyst mit Dual-Graphics Support erschien und in den Tests folgte die Ernüchterung. Nur in Verbindung bis R7-250 und am besten nur mit DDR3. Also flog die R7-260X raus und eine 7750 gebraucht besorgt. Die weitere Ernüchterung kein DirectX9 Support (konnte ich ja noch verstehen) aber auch kein OpenCL Support in Spielen.

Nach viel Frust und dem Sommerloch wollte ich jetzt einen neuen Versuch wagen. So wird jetzt die 7750 von einer R7-250 von MSI beerbt und außerdem hält Tonga den Einzug bei mir in Form einer R9-285 von ASUS (Hoffnung: das Tonga mit der 4ten Ausbaustufe von HSA, usw und Carrizo im März´15) endlich das wahr macht was ich mir schon von Kaveri versprochen hatte.

Nur wenn ich jetzt Euren Test lese DANN stirbt gerade meine Hoffnung was Kaveri, Civ und Dual-Graphics angeht wieder komplett! Auch Alien Isolation wollte ich ausprobieren. Mal sehen was rauskommt wenn die neue Hardware am Dienstag kommt.

Außerdem möchte ich noch hinzufügen, dass ich auch Probleme habe mit dem 14.9.2 Catalyst in Verbindung mit dem OverDrive Tool von AMD. Egal ob alte oder neue Version! Beides endet bei mir in einem Blackscreen und einem Neustart des Systems. Overdive musste folglich wieder runter.

Muss jetzt was essen! Mir ist leider ganz flau im Magen!

Ich habe damals SEGA die Stange gehalten, weil ich die Innovationen Klasse fand und ich werde auch AMD die Stange noch halten solange es noch geht, aber langsam bereue ich, dass ich meinen FX6300 inkl. GTX760 (HTPC) und FX8350 inkl. GTX780 aufgegeben habe und fange langsam an in Richtung der Xeons zu schielen.

Bitte AMD bessert bei dem Catalyst nach! Und BITTE BITTE vor allem holt mit Carrizo und ZEN in Zusammenspiel mit Tonga und was noch so folgt das nach was Ihr versprochen habt...

Auch ein ordentlicher Civ Patch wäre nicht schlecht. Die Hoffnung stirbt halt zu letzt!

Und an Planet3DNow: Danke für den Test und den Einbezug von Kaveri bzw Dual-Graphics. TOP!
 
Zuletzt bearbeitet:
Du könntest mal den Perfmonitor von CPUID versuchen. Habe mich damit aber noch nie auseinandergesetzt. Sollte aber neuer sein und es werden aktuelle Dinge wie Haswell und Kaveri unterstützt. Bei Perfwatch wurde leider seit 2011 die Seite nicht mehr aktualisiert :(

mfg

Roman
Der perfmonitor2 bietet viele "counter" aber er hat eine relativ hohe Auslastung durch den schnellen Abfrageintervall.
Selbst beim FX-8350 macht es sich bemerkbar, bei einer kleineren CPU könnte das kritisch werden und die Auslastung der CPU verfälschen.

Ich nutze oft den "unhalted clock cycles" counter:
Unhalted clock cycles
The unhalted clock cycles count the cycles when the CPU is not in the halted state. When the processor is not in activity, it spends a lot of time in HLT state, and the unhalted clock cycles are very low. When the processor is at 100% load, the unhalted clock cycles show the current frequency, unless the CPU is throttling.

http://abload.de/img/boincsimap_ecc-1866jao83.png

MfG
 
@ MMH

Deine Probleme mit deinem System sind nicht schön. Das klingt als wäre der Wurm bei dir drin.
Wie hast du die Speichergeschwindigkeit von 2666 geschafft. Ich habe nur von anderen gelesen, das es nicht stabil und praxistauglich funktioniert. D.H. das man dafür den systemtakt raussetzen muss und damit den Busübertakten, was wiederum probleme mit Zusatzhardware wie PCie/Pci aber auch Festplatten sorgt. Gibt es einen ext. Taktgeber und bringt der was?

Kann die niedrigere Leistung mit der höheren Speichernutzung mit Mantle zusammenhängen. Bei den größeren Grafikkarten wurde ja von stärkeren Speichernutzung neben generell höheren Auslaustung berichtet.
 
Zuletzt bearbeitet:
Kann die niedrigere Leistung mit der höheren Speichernutzung mit Mantle zusammenhängen. Bei den größeren Grafikkarten wurde ja von stärkeren Speichernutzung neben generell höheren Auslaustung berichtet.
Nun, ich weiß nicht, was Du mit "höherer Speichernutzung" meinst. Wie man anhand der GPU-Z-Bildchen sehen kann, werden im Mantle-Modus mehr Daten in den Grafikspeicher geladen. Anders als zunächst bei Thief (wurde mit einem Patch inzwischen behoben) wird nicht mal ansatzweise die Obergrenze von 2 GiB erreicht. Daran kann es - wie im Text auch beschrieben - also nicht liegen. Ob mit Mantle eine höhere Speicherbandbreite benötigt wird, kann ich nicht sagen. Hierzu habe ich noch keine Tests gemacht. Das kann auch immer stark vom jeweiligen Spiel und der verwendeten Mantle-Implementierung abhängigen.

Die höhere GPU-Auslastung ist ja gerade das, was mit Mantle erreicht werden soll - und zwar möglichst gleichbleibend bei nahezu 100 %. Vor allem bei den GPUs vom Kaliber einer Hawaii wird es zunehmend schwerer diese unter DirectX voll auszulasten, weil diese API Multithreading nur unzureichend unterstützt, weshalb es auf die Leistungsfähigkeit eines einzelnen CPU-Kerns ankommt. Hier stockt die Entwicklung aber zunehmend. Die höhere Auslastung unter Mantle ist also kein Fehler oder Problem, sondern ist das Ziel dieser API
Wie man ebenfalls an den GPU-Z-Bilchen sehen kann, hat die DirectX-API allerdings keine Probleme auf dem A10 die iGPU voll auszulasten - selbiges gilt für Mantle.

Die einfachste Erklärung für die schlechtere Performance mit Mantle auf der iGPU der A10 APU ist schlicht, dass der Entwickler für diese Hardware noch keine Optimierungen vorgenommen hat. Bei Mantle ist ja in erster Linie der Entwickler des Spiels hierfür verantwortlich und nicht länger der Hersteller der GPU über den Grafiktreiber.
 
Stärkeren Speichernutzung ist doch mehr als höherer Platzverbrauch. Es gibt ja noch die Bandbreite und die Übertragungsgeschwindigkeit. Ich hatte im Zusammenhang mit Mantle von höheren Verbrauch von Speicherplatz, sodass bei einigen Leuten der Platz im Speicher der Grafikkarte ausging. Dabei war (zumindest für mich) unklar ob mehr Daten im Speicher benötigt werden, der Platz durch kleinere Pakete aufgeblasen wird oder nicht mehr benötigte Daten nicht gelöscht werden. Auf den GPU-Z Speicherverbräuchen sieht man ja eine starke Veränderung des Speicherplatzes. Mehr Fps bedeutet ja nicht nur das mehr Berechnungen auf CPU und GPU durchgeführt werden, sondern auch mehr Daten. Ich glaube nicht das der Mehrverbrauch nur daran liegt. Wobei fehlende oder geringere Optimierungen ja auch zur einer stärken Nutzung des Speichers führt. In meinen Augen sind die Veränderungen größer als das das durch die beide Grunde erklärt werden kann.

Es kann doch sein, dass das Speicherinterface durch Aufteilung in kleiner Pakete oder mehr Daten stärker belastet wird. Eine Veränderung der Speichergeschwindigkeit bzw. der Timings sollte hier noch etwas Klarheit sorgen. Ich vermute mal das bei geringerem Speichertakt die Unterschiede noch größer werden.


Edit : die höhere Auslastung zeigt sich auch in höheren Stromverbrauch. Die gemessene Stromverbräche waren bisher unter Mantle höher als in DX. Ausnahme bei TweakPC.

http://www.tweakpc.de/hardware/tests/cpu/amd_mantle_civ/s02.php
 
Zuletzt bearbeitet:
Das Problem an deinen Überlegungen ist, dass du hier Generalisierungen vornimmst, die so nicht auf die API Mantle bezogen werden dürfen. Es ist nur eine API. Warum in den uns bis zum heutigen Tag vorliegenden Implementierungen unter Mantle mehr Daten im Grafikspeicher abgelegt werden, wissen wir nicht. Dazu müssten sich die Entwickler äußern. Vielleicht bringt es eine höhere Performance, wenn Daten bereits vorgehalten werden - also geladen werden noch bevor sie vielleicht wirklich gebraucht werden. Ob es tatsächlich ein inhärentes Problem der API ist, wissen wir schlicht nicht. Ich kenne mich dafür auch zu wenig mit der Materie aus. Denkbar wäre natürlich, dass die erlaubten Datenstrukturen mit Mantle einen Overhead verursachen, den es unter DirectX nicht gibt. Möglich ist es, wissen tue ich es aber nicht. Unter DirectX soll das Speichermanagement aber sehr aggressiv sein und den Speicherbedarf so gering wie möglich halten - habe ich zumindest gelesen.


Die bisherigen Beobachtungen basieren auf den bisherigen Implementierungen. Daran kann sich mit fortschreitenden Optimierungen bei den jeweiligen Spielen/Engines noch viel verändern. Bei der Frostbite-Engine hatte ja Anderson explizit gesagt, dass ein möglichst kleiner Speicherbedarf kein Optimierungsziel für die erste Mantle-Implementierung war. Unter Mantle hat der Entwickler ja volle Kontrolle über das Speichermanagement, was mit DirectX so nicht der Fall ist.



Und ja, wenn ich die GPU besser auslaste, habe ich GPU-seitig automatisch eine höhere Leistungsaufnahme aber zumeist auch eine höhere Effizienz (mehr FPS pro W).
http://www.planet3dnow.de/cms/6751-amd-mantle/subpage-skalierung-und-effizienz/

Bei Civ haben wir jetzt ein eher CPU-lastiges Spiel. Wie man auch in unseren Diagrammen sehen kann, schafft es die CPU mit Mantle leichter (die CPU muss dafür weniger tun, weniger Arbeit verrichten), die GPU voll auszulasten. In diesem Fall hat die CPU dann eine geringer Leistungsaufnahme. Wenn ich jetzt einen Vergleich zwischen DX und Mantle heranziehe, wo beide APIs es schaffen die GPU voll auszulasten, lande ich automatisch bei einer niedrigere Leistungsaufnahme für Mantle. Das ist nicht weiter überraschend, sondern genau der Effekt, den man erwarten kann und den auch schon Intel (allerdings im Zusammenhang mit DirectX 12) beworben hat.
 
Bezüglich VRAM mit der Mantle API:

Enhanced-quality Anti-Aliasing (EQAA): Improves anti-aliasing quality by doubling the coverage samples (vs. MSAA) at each AA level. This is automatically enabled for AMD users when AA is enabled in the game.
Es ist doch bekannt das gerade Anti Aliasing viel VRAM benötigt, wenn das automatisch an ist, wäre der höher VRAM Verbrauch "normal"

Bei BF4 sind es inzwischen weniger VRAM (800MB) so das auch eine 2GByte GPU für Ultra Details reichen sollte.
 
Anti Aliasing hatte wirklich nicht bedacht.

Überzeugen tut mich das nicht. Da vieles noch unklar ist, ist es müßig weiter zudiskutierem.
 
EQAA statt MSAA belegt nicht nennenswert mehr VRAM, am AA liegt es unter Mantle nicht.
 
EQAA statt MSAA belegt nicht nennenswert mehr VRAM, am AA liegt es unter Mantle nicht.
Kann man das im Spiel umstellen auf MSAA? Ich dachte da geht dann nur EQAA.
Muss ich mir doch mal selbst anschauen. Thx für Info.
 
Kann man das im Spiel umstellen auf MSAA? Ich dachte da geht dann nur EQAA.
Muss ich mir doch mal selbst anschauen. Thx für Info.

EQAA unter Mantle kann man meines Wissens nicht deaktivieren.

Was du aber machen kannst, ist EQAA im DirectX-Modus via CCC zuschalten.
 
EQAA unter Mantle kann man meines Wissens nicht deaktivieren.

Was du aber machen kannst, ist EQAA im DirectX-Modus via CCC zuschalten.
Danke für die Aufklärung.
Wie war das bei deinem Test, war die Ladezeit mit Mantle auch schneller wie mit DX11?
Ich hatte den Eindruck eine PCIe SSD verbaut zu haben, von knapp 30 Sekunden auf knapp 10 Sekunden bis man im Spielmenü ist. :o

Schöne Weihnachten @ all.
 
Zurück
Oben Unten