News AMD bittet um Feedback zum Catalyst-Treiber und kündigt Überraschung an [Update]

naja, vielleicht hat sich das ja auch in den letzten monaten was getan ?!

es gab jedenfalls benches mit der CPU-last, wo die AMD-karten eine höhere hatten.
dachte das wäre allgemein bekannt. im 3dc gab es dies bzgl. auch mal eine diskussion.

und nvidia hats ja scheinbar auch erkannt, das es da bei ihnen hakt(e).

mfg
 
Dann diskutiere das doch mit den FPS Junkies dort.

Technisch gesehen ist ja völliger Unfug eine Leistungsbeurteilung einer Komponente (CPU) abzugeben Anhand einer Kennzahl die durch eine andere Hardware (GPU) erreicht wird und die auch noch Abhängig von Software ist (Treiber und Spielesoftware). Jetzt dieses angebliche "CPU-Limit" auch noch dafür herzunehmen um wieder rückwärts die GPUs eines bestimmten Herstellers dafür verantwortlich zu machen, dass sie weniger Daten zum berechnen erhalten und daran Schuld seien es käme weniger Min. FPS zustande ist echt der Gipfel des Unfugs. Und das alles mal wieder völlig ohne Einfluss der Treiber, API, Software, Compiler oder des OS.

Hoffentlich hört mal der Unsinn auf, dass gerenderte Bilder in der Sekunde, mit einer Software die zu 90% für GPU und Benutzereingabe programmiert wurde, eine Aussage über die Fähigkeiten oder Defizite einer CPU belegen sollen. Nicht alles was hinkt ist ein Vergleich.
 
@complicated

nach dem was ich bei dir so lesen muss, denke ich mal, dass du nicht kapiert hast, was ich meine.
es geht einzig und allein um eine höhere CPU-last mit einer AMD-graka ggü. einer NV-karte bei sonst identischen bedingungen.

bsp:
bei der AMD-graka ist die cpu-last im benchmark eben 22% und bei der NV nur 18% (ist nur ein beispiel)
die AMD-karte liefert min-FPS=35 & dafür aber max-FPS=66,
die NV-karte min-FPS=38, aber dafür nur max-FPS=63.

das dumme ist nur, man findet solche guten benches bzw. tests selten.

und ich schließe auch nicht aus, dass es mittlerweile weniger schlimm bzw. nicht mehr vorhanden ist.

mfg
 
Nette Theorie aber ohne bezug zum Zeitpunkt wertlos.
Ist die CPU Auslastung höher wenn die Radeon schneller ist dann ist das nur logisch.
Sowas allerdings an einem einmaligen Wert wie den min. oder max. fps OHNE Frameratenverlauf fest zu machen einfach nur lächerlich.
 
häää?
seit wann ist es logisch, das eine schnellere karte = höhere CPU last erzeugt?
mit steigender anzahl an grakas würde ich zustimmen.
das würde ja sonst bedeuten, dass höhere max-FPS zu geringeren min-FPS führen würde und es zu starken rucklern führt.
tatsächlich steigen ja aber auch die min-FPS mit einer schnelleren graka an ;)

und natürlich sprech ich von frameverläufen und cpu-last verläufen. nicht nur von einem zeitpunkt ;)

und wenn mantle als API diesen effekt zeigt, das CPU-last senken auch zu höheren FPS führt, wieso schließt ihr das für dx+treiberoptimierungen aus?
nvidia hats doch vorgemacht oder irre ich da?

mfg
 
Weil die Bilder nicht der liebe Gott in den Grafikspeicher zaubert sondern berechnet werden müssen und daran ist auch die CPU beteiligt. Woher sollen denn sonst die ganzen "welche CPU für welche GPU" Topics kommen? ;)

Was du leider übersiehst ist die Bedeutung des Zeitpunkts also wann welche Framerate bei welcher CPU Auslastung bestand.
Die Einzelwerte für sich sind ohne diesen Zusammenhang schlicht wertlos und genau das ist auch der Knackpunkt bei den min. und max. Werten.
Was bringen mir diese wenn sie zu unterschiedlichen Zeitpunkten und damit an unterschiedlichen Stellen auftraten? Das kann bei unterschiedlichen Architekturen recht schnell passieren denn es berechnen nicht alle GPUs alles gleich gut. Jede hat ihre Stärken und Schwächen.

Wo du gerade die Mantle API ins Spiel bringst....wie man bei diversen Tests sehen konnte bringt diese nicht generell deutlich mehr Leistung sondern da wo das CPU Limit ins Gewicht fällt. Hängt die Grafikkarte gnadenlos im GPU Limit bringt Mantle kaum was bis garnichts, hängt das Spiel im massiven CPU Limit sind die Leistungszuwächse riesig. Natürlich gibt es aber auch einen Raum dazwischen durch den der Leistungszuwachs je nach Grad der Limitierung variiert.

Die Mantle API senkt die CPU Last, das ist korrekt aber wie sich das auswirkt hängt von der jeweiligen Szene ab.
Besitzt diese eine massive CPU Limitierung wirkt sich das kaum bis garnicht auf die CPU Auslastung aber sehr deutlich auf die Framerate aus, sitzt man hingegen im massiven GPU Limit ist es genau anders herum. Die Framerate interessiert es kaum, die CPU Auslastung hingegen sehr deutlich.

Was nvidia da genau gemacht hat ist jetzt die Frage den man kann die Berechnungen natürlich auch anderweitig beschleunigen was aber eventuell nur in diesem einen Spiel (fehlerfrei) funktioniert weil man dabei womöglich standardisierte Abläufe bei der Berechnung ignoriert.

Angesichts dessen das es ebend keine generelle Verbesserung ist sondern eher gezielt arbeitet tippe ich eher darauf.
 
Mit Spieletests kann man überhaupt nichts sagen ausser welche Kombination von CPU/GPU/API/OS/Treiber am besten geeignet ist fur ein spezifisches Spiel. Wer da Leistungsdaten für eine spezifische Komponente raus extrahiert, und diese für allgemein gültig hält, der sollte auch belegen, dass eine CPU z.B.auch ihr maximales Potential ausschöpfen konnte. Dies ist zumeist alleine aufgrund der benutzten Instruktionen nicht möglich, da mir kein Spiel mit AVX oder gar AVX2 Programmierung bekannt ist. Benutzt irgendeines denn SSE4?

Ja wie soll denn eine CPU ihr Leistung abrufen wenn es der Programmcode nicht her gibt. Da gehen alle einfach blind dazu über zu behaupten, dass ja schließlich der gleiche Code auf jeder CPU ausgeführt wird und daher eine Vergleichsbasis vorhanden ist. Nur werden aus diesen Relationen ratzfaz absolute Aussagen gemacht. Nur weil eine Software keine CPU voll auslasten kann, heisst das nicht dass diese für Vergleiche taugt weil alle gleich schlecht ausgelastet werden.
 
Dies ist zumeist alleine aufgrund der benutzten Instruktionen nicht möglich, da mir kein Spiel mit AVX oder gar AVX2 Programmierung bekannt ist. Benutzt irgendeines denn SSE4?
GRID 2 hat eine separate AVX.exe und da hatte Huddy die Finger im Spiel... ;D
 
scheinbar hat das problem momentan eher nvidia, als amd.

aber ihr wollt es ja eh nicht verstehen.

http://www.pcper.com/reviews/System...System-Builds-Compared/Game-Benchmark-Results

das mit einer stärkeren karte die cpu-last so steigt, das die min-fps sinken ist doch falsch.
du postest doch selber benches, wo die min-fps mit der stärkeren graka steigen.
das macht doch keinen sinn, was du da schreibst.

mfg
 
Du hast da einen grundlegenen Denkfehler.
Wenn die Grafikkarte mehr Bilder auf den Bildschirm zaubern kann wird auch die CPU mehr belastet.
Limitiert allerdings die CPU, was zwangsläufig nötig ist damit ein höherer CPU Bedarf des Treibers durchschlagen kann, dann langweilt sich die schnellere Grafikkarte lediglich mehr. Der Einfluss der schnelleren Grafikkarte auf die Framerate geht im CPU Limit gegen 0.

Allerdings sollte man dabei bedenken das die min. FPS Anzeige nicht zwangsläufig auf ein CPU Limit zurückzuführen ist. Die Grafikkarte kann ebenfalls für diesen Zeitpunkt limitieren oder durch einen Nachladeruckler bedingt sein. Genau deshalb geht in meinen Augen die Aussagekraft von solchen einmaligen Werte ohne Frameratenverlauf gegen 0.
 
ach so meintest du das.
dann nehme ich das zurück.

ja, mir wären diagramme mit frameverläufen und cpu-last auch lieber. mich nerven diese dummen avg-FPS balken.

und benches werden ja meistens wiederholt und dann kann man auch schon mal kleinere rückschlüsse mit den ollen balken ziehen.

mfg
 
So schlecht ist der aber nicht denn es handelt sich hierbei schließlich um einen Durchschnittswert.
Zusammen mit dem min. und max. FPS Wert kann man dadurch zumindest erahnen wo die Reise hin geht.
Je näher er beim max. Wert liegt desto warscheinlicher ist es das der min. Wert auf nem Ausrutscher beruht.
Je näher er beim min. Wert liegt desto warscheinlicher ist es das Frameraten in der Region des max. Wertes nur selten auftreten und Frameraten im unteren Bereich sogar Streckenweise auftreten.

Anhand dessen kann man dann natürlich auch den Bedarf nach Grafikleistung abschätzen.
 
GRID 2 hat eine separate AVX.exe und da hatte Huddy die Finger im Spiel... ;D
Nur bedeutet die Existenz einer Grid2avx.exe nicht, dass dort AVX Code verwendet wird. Die Exe ist exklusiv für Haswell iGPUs und starten mit keiner AVX fähigen AMD CPU. Es beinhaltet Intel Exklusive DX 11 Erweiterungen wie PixelSync, Adaptive Order-Independent Transparency (AOIT) und Adaptive Volumetric Shadow Maps (AVSM). Alles GPU Features und keine CPU Instruktionen.

http://forum.beyond3d.com/showthread.php?t=63645
https://software.intel.com/en-us/bl...demasters-grid2-running-on-intel-4th-gen-core

Übrigens Text von Intels Link:
As we march towards true heterogeneous computing, we need ways of allowing both processors to work on the same data in memory. With InstantAccess, Intel's graphics driver can deliver a pointer to a location in GPU memory that the CPU can then access directly. The CPU can work on that GPU address without a copy and then release it back to the GPU
HSA kommt auch bei Intel. Derzeit sind sie mit Haswell auf dem technischen Niveau von Llano angelangt was Pointer Sharing angeht.
 
Zuletzt bearbeitet:
Du hast da einen grundlegenen Denkfehler.
Wenn die Grafikkarte mehr Bilder auf den Bildschirm zaubern kann wird auch die CPU mehr belastet.
Limitiert allerdings die CPU, was zwangsläufig nötig ist damit ein höherer CPU Bedarf des Treibers durchschlagen kann, dann langweilt sich die schnellere Grafikkarte lediglich mehr. Der Einfluss der schnelleren Grafikkarte auf die Framerate geht im CPU Limit gegen 0.

Allerdings sollte man dabei bedenken das die min. FPS Anzeige nicht zwangsläufig auf ein CPU Limit zurückzuführen ist. Die Grafikkarte kann ebenfalls für diesen Zeitpunkt limitieren oder durch einen Nachladeruckler bedingt sein. Genau deshalb geht in meinen Augen die Aussagekraft von solchen einmaligen Werte ohne Frameratenverlauf gegen 0.

Zudem sollte alles mit SLI und CF dort gestrichen werden, was bringt mir der mehr Speed wenn die Technik dahinter zu lahm für unser Auge ist, weil man es nicht schafft eine Synchronisation der beiden GPUs in weniger als 0ns hinzukriegen, um es mal übertrieben auszudrücken. Denke das dürfte noch 5-10 Jahre dauern. Bin leider einer von denen die zu empfindlich auf Ruckler reagieren, das geht mir schon auf den TV auf den Sack und ich jedenfalls das IFC umstellen damit flüssig und normal läuft, oder Microruckler bei nicht 24P fähigen Geräten. Scheiß Technik.
 
Zuletzt bearbeitet:
Nur bedeutet die Existenz einer Grid2avx.exe nicht, dass dort AVX Code verwendet wird. Die Exe ist exklusiv für Haswell iGPUs und starten mit keiner AVX fähigen AMD CPU. Es beinhaltet Intel Exklusive DX 11 Erweiterungen wie PixelSync, Adaptive Order-Independent Transparency (AOIT) und Adaptive Volumetric Shadow Maps (AVSM). Alles GPU Features und keine CPU Instruktionen.

http://forum.beyond3d.com/showthread.php?t=63645
https://software.intel.com/en-us/bl...demasters-grid2-running-on-intel-4th-gen-core

Übrigens Text von Intels Link:
HSA kommt auch bei Intel. Derzeit sind sie mit Haswell auf dem technischen Niveau von Llano angelangt was Pointer Sharing angeht.
Ich glaube sowas wie Intel spezifisch gibt es nicht mehr, gut manche Begriffe sind vielleicht TM, dann wird einfach ein anderen Name vergeben.
Das ist schon AVX und läuft auch bei mir mit AMD Hardware only, da gibt es auch AA Filter die nur mit AMD GPUs laufen und auswählbar sind.
Zudem verliert mein CrossfireX gerade mal 50% der FPS zwischen 1080p und 5670x1080p, also auch mit 3x 1080p mit mindestens 60FPS spielbar.

Ich kann die .exe gern mal durch "helles" Instruktion finder jagen und hier posten.
 
@Zidane
Die ganze Mikroruckler Geschichte war hierbei außen vor da sie sich nicht auf die Framerate sondern auf die Framelatenz auswirkt. ;)
Ich für meinen Teil kann mich zwar glücklich schätzen relativ unempfindlich gegenüber Mikrorucklern zu sein allerdings sind mir die anderen multi GPU Probleme, vor allem die Abhängigkeit von entsprechenden Profilen, zu nervtötend. Deshalb war mein letzter Ausflug in das Gebiet meine alte HD3870 X2.
 
Ich kann die .exe gern mal durch "helles" Instruktion finder jagen und hier posten.
Das würde ich sehr begrüßen, denn die Links belegen, dass es DX11 Erweiterungen sind. Intel selbst sagt dies in dem Link und sagt ebenfalls, dass es Intel Exklusive Features sind. Das hat mit glauben nichts zu tun. Und starten kann man die Grid2AVX.exe auch mit AMD GPUs, doch nicht mit AMD CPUs. Zumindest laut den verlinkten Quellen.
 
Wurde AVX nicht bei Dirt Showdown genutzt?
 
Das würde ich sehr begrüßen, denn die Links belegen, dass es DX11 Erweiterungen sind. Intel selbst sagt dies in dem Link und sagt ebenfalls, dass es Intel Exklusive Features sind. Das hat mit glauben nichts zu tun. Und starten kann man die Grid2AVX.exe auch mit AMD GPUs, doch nicht mit AMD CPUs. Zumindest laut den verlinkten Quellen.
Mit glauben meinte ich, dass Intel es übertrieben hat mit exclusiven Features um damit die Marktposition zu halten.

Demnach wissen andere auch nicht mehr als wir, hier die GRID2_AVX.exe:

AVX.exe
grid2_avx_disa88kud.jpg

SSE(2).exe
grid2_disaeioun.jpg

@sompe
Das sollte sich auch mit Helles Disa... leicht heraus finden lassen. Showdown habe ich leider nicht.
 
Zuletzt bearbeitet:
Danke. Könntest du zum Vergleich auch noch die Original Grid.exe durchlaufen lassen?
 
@Zidane
Die ganze Mikroruckler Geschichte war hierbei außen vor da sie sich nicht auf die Framerate sondern auf die Framelatenz auswirkt. ;)
Ich für meinen Teil kann mich zwar glücklich schätzen relativ unempfindlich gegenüber Mikrorucklern zu sein allerdings sind mir die anderen multi GPU Probleme, vor allem die Abhängigkeit von entsprechenden Profilen, zu nervtötend. Deshalb war mein letzter Ausflug in das Gebiet meine alte HD3870 X2.

Dafür habe ich um Umkehrschluss das Problem, keine Ahnung ob es einen Zusammenhang damit gibt, bezogen auf die Verarbeitung im Gehirn das mir bei zu schnellen Schootern immer übel wird, wo andere keine Probleme mit haben. Da wird mir nach 5-10 Minuten schlecht, reicht auch schon neben den PC zu sitzen und zuzuschauen, geht gar nicht.
 
Bezieht sich das nur auf multi GPU oder aufs Spielen mit 3D Brillen?
Ersteres könnte meiner Meinung nach durchaus von den Mikrorucklern durch ihren unregelmäßige Framefolge kommen, letzteres kommt meiner Erfahrung nach durch übertriebene 3D Effekte mit denen ich auch meine Probleme habe und mir die ganze 3D Geschichte deshalb relativ egal ist.
Bezieht sich das aber auch aufs Spielen mit einer Grafikkarte und ohne 3D dann kann das auch von den widersprüchlichen Informationen von Auge und Innenohr/Gleichgewichtssinn kommen.

--- Update ---

Nochmal zum Topic an sich.....ich finde die Nähe der Aktion zum Matrox Deal interessant. Vielleicht ist ja die große Überraschung das Matrox einen Nachfolger vom CCC liefert. :D
 
Die Überraschung würde mich auch mal interessieren ...
Gibt es eigentlich bei den Treiber Updates auch leistungsgewinne bei den APU's oder eher weniger ? Gibt davon keine Benchmarks .
 
Zurück
Oben Unten