NVIDIA - PhysX

Multicore bei PhysX ist Sache der Devs, das lässt sich ziemlich gut parallelisieren. Wenn du dann noch die Rechenleistung einer CPU mit einer GPU vergleichst, wirst du erkennen, warum die GPU so viel schneller ist. So Effekt-Physik wie Partikel berechnet schon heute die GPU, bei der UE3 und Co ist das Standard.

Ich meine Nvidea behauptet das reines Software PhysX multicore unterstüzt und zur gleichen Zeit sagt Nvidea das es nur mit einer PhysX fähigen GPU getestet werden kann.
Sollen sie schreiben, nehmt eine Radeon? ^^
 
Du verstehst den Artikel offenbar völlig falsch. Demnach sollte dein Ansprechpartner nämlich der Softwarehersteller sein, bei dem "dein Problem" auftritt.
PhysX Unterstützung gibt es heute sogar schon auf Smart Phones und Tablets.
Dann klär mich mal bitte auf


Multicore bei PhysX ist Sache der Devs, das lässt sich ziemlich gut parallelisieren. Wenn du dann noch die Rechenleistung einer CPU mit einer GPU vergleichst, wirst du erkennen, warum die GPU so viel schneller ist. So Effekt-Physik wie Partikel berechnet schon heute die GPU, bei der UE3 und Co ist das Standard.

Nur verstehe ich nicht, warum die 3.0 bis heute nicht von der PhysX Software unterstüzt wird und vorallem warum die Skalierung so schrecklich ist (erweiterter multicore support ist auch erst ab 3.0 vorhanden)?

Sollen sie schreiben, nehmt eine Radeon? ^^
Ähm ja, da Nvidea ja den behauptungen, das es die CPU bremst somit besser entgegen wirken würde^^
 
AMD behauptet da doch einfach was und belegt es nicht.
Wenn dem wirklich so wäre, das die Skalierung zu ungunsten der CPU und seit Übernahme von Ageia, zugenommen hätte, wird man zu Übverprüfung nicht um das Einbinden einer Ageia o. Nvidia PhysX Karte herum kommen.
Da AMD bekanntermaßen immer wieder mit Luft auf PhysX schießt und ja auch schon vor etlichen Jahren für Tod erklärt hat, sind deren Äußerungen eher als Marketinginstrument, denn als fundierte Wissenschaft, zu interprätieren.
Falls dich die Auslastung der CPU stört, dann beklag dich doch mal beim Hersteller deiner Software. Einen anderen Weg das zu beheben sehe ich jedenfalls nicht, falls dir daran gelegen ist.

Gruß
 
Falls dich die Auslastung der CPU stört, dann beklag dich doch mal beim Hersteller deiner Software. Einen anderen Weg das zu beheben sehe ich jedenfalls nicht, falls dir daran gelegen ist.
Gruß
Mach ich ja, wo ich aber glaube das es nix bringt (da fast nur die PhysX SDK 2.X genutzt wird und diese hat im vergleich zur 3.X kein automatisches Multithreading und keine SSE-Unterstützung impletiert)

Einen anderen Weg sehe ich schon und zwar wenn mal endlich die SDK 3.0 unterstützt wird von der aktuellen PhysX Software, um somit den devs der Software es überhaupt zu ermöglichen die Vorteile der 3.0 nutzen zu können.
 
Wenn die Entwickler wollten, könnten sie PhysX ab SDK 3.x implementieren, die Bibliotheken mitliefern. Das würde aber nicht bedeuten das jetzt alle Features autom. funktionieren. Denn da hat Erstgenannter immer noch seine Hand mit im Spiel. Es bestünde dann lediglich die Möglichkeit.....
Auf der anderen Seite sieht das eher so aus, als wenn die Spieleschmieden gänzlich die Implementierung von Features den Grafikkartenherstellern überlassen würden und selbst wenig bis nichts dafür tun.
Letzten Endes müßte Nvidia wieder ein Team zu den Entwicklern raus schicken. Das war allerdings mal ein heikles Thema und zu befürchten steht, das die das deswegen vorerst nicht mehr machen werden.
 
Ist PhysX eigentlich inzwischen so weit das Multicore CPUs supportet werden? Weiß noch das Batman Arkham Asylum nicht ordentlich lief obwohl noch 3-4 Cores nicht ansatzweise ausgelastet waren. Damals wurde argumentiert das sich PhsysX nicht so einfach parallelisieren lassen könnte (obwohl GPUs ja auch massiv parallelisiert sind). Geht das inzwischen?
 
Ist PhysX eigentlich inzwischen so weit das Multicore CPUs supportet werden? Weiß noch das Batman Arkham Asylum nicht ordentlich lief obwohl noch 3-4 Cores nicht ansatzweise ausgelastet waren. Damals wurde argumentiert das sich PhsysX nicht so einfach parallelisieren lassen könnte (obwohl GPUs ja auch massiv parallelisiert sind). Geht das inzwischen?

PhysX kann das schon von Anfang an, aber nur wenn es auf einer nVidia GPU laufen soll. Es ist nicht so das es auf einer CPU nicht ginge, oder nicht einfach wäre, es soll da einfach nicht besser drauf laufen. Und darum ändert man es auch nicht. Denn selbst auf einem Kern könnte es besser laufen, denn selbst da ist es offensichtlich absichtlich aus gebremst.
 
eine frage, wenn ich eine Physx Karte zu meiner Graka zustecken will, die dann im Treiber als reiner Physx slave dienen soll, welche karte währe da geeignet? als es mit Physx losging, haben viele geschrieben, einen reinen Physxbeschleuniger sollte es nicht unter der 8800GT geben, weil eine z.B. 8600GT zu lahm sei, wie ist es heute, dann sollte doch eine GT240 locker reichen oder? würde meiner GTX650Ti SCC gerne einen Physx knecht zustecken.
 
Ich würde es lassen. Die Idee hinter PhysX finde ich super, aber es wird zu selten benutzt. Und wenn, dann ist es mitunter mies optimiert, auch auf GPU. Ich habe Borderlands 2 mit GTX580 SLI und jetzt mit Titan SLI getestet. Ich kann einstellen was ich will, es gibt immer Einbrüche bei PhysX@high@GPU. Selbst wenn ich eine Titan nur PhysX rechnen lasse...abartig.
 
eine frage, wenn ich eine Physx Karte zu meiner Graka zustecken will, die dann im Treiber als reiner Physx slave dienen soll, welche karte währe da geeignet? als es mit Physx losging, haben viele geschrieben, einen reinen Physxbeschleuniger sollte es nicht unter der 8800GT geben, weil eine z.B. 8600GT zu lahm sei, wie ist es heute, dann sollte doch eine GT240 locker reichen oder? würde meiner GTX650Ti SCC gerne einen Physx knecht zustecken.
Schon mal aufgefallen, dass Nvidia selbst das Thema PhysX gar nicht mehr so hoch hängt?

Im Grunde genommen hat der grüne Grafikgigant diesen Bereich ihrer Grafikkarten von Generation zu Generation "verschlankt", wenn man mal die echte Titan für 1000 Euronen davon ausnimmt.

MFG Bobo(2013)
 
Borderland 2 ist sogar so ein Beispiel wo PhysX von Nachteil ist. Denn wo man ohne PhysX drauf stehen kann, fällt man mit PhysX durch.
 
Wäre mir auch neu...
 
Ich fürchte diesen Benches zum Trotz, die GT 240 verringert die Fps :D
 
GT240 hatte ich vor jahren mal neben GTX460 und später 560 als PPU - das taugt nicht viel.


(..)

mfg
tobi
 
wir werden sehen !

und zur not, kommt die in den Rechner meiner Freundin, und ihre Passive ASUS GT640 dann als Physx karte in mein Kiste.
für ihre SIMS3 sollte die GT240 reichen.
 
Zuletzt bearbeitet:
"die" GT240 gibts eigentlich nicht.. AFAIR gab es unterschiedliche ausführungen, mit verschiedener RAM-bestückung und unterschiedlichen takten.. ist laaaaange her..



(..)

mfg
tobi
 
Zuletzt bearbeitet:
meine hat 512MB GDDR5
 
meine hatte 1GByte GDDR3, wenn ich mich nicht irre...
..und takte, die zu keinem review im netz passten (gainward).


(..)

mfg
tobi
 
so habe gestern getestet, allein ist die GT240 in einem Physx Test natürlich hinter der GTX650Ti. aber wenn es ein Test ist in dem neben Physx alles ander mit einfliest, steigt die gesammt Performance wenn die 240 nur als Physx Karte zugeordnet ist. es sind zwar nicht so viel fps, zwischen 10-20, aber immerhin. Ich werde die tage mal mit der GT640 als Physx Karte testen.
 
Zurück
Oben Unten