Fragen bezüglich PhysX

Balthazar_101

Commander
Mitglied seit
31.07.2008
Beiträge
198
Renomée
3
Standort
Linz / Österreich
Abend!


U zwar hab ich mir die Tage eine neue GTX 470 besorgt. Bin mit der Leistung auch voll und ganz zufrieden! :) Die Performance ist beeindruckend u die Übertaktbarkeit lässt mich staunen , wenn ich an meine alten HD 4870 denke.

Habe jetzt noch per Zufall eine 8800GTS geschenkt bekommen und würde diese noch als PhysX Karte nutzen. Mir ist schon klar das ich dafür programmierte Spiele u der gleichen benötige.

Meine Frage eigentlich .. Benötige ich für PhysX eine SLI Brücke oder stecke ich die nur in den nächsten PCI 16x 2.0 slot ( Im Treiber PhysX aktivieren ) u los gehts ?!

Ist es überhaupt ratsam diese Karte zu stecken .. mehr Performance in Spielen ?! Ich habe leider diesbezüglich keine Kenntnisse.

Warum der Gedanke PhysX ,.. Da meine CPU ( E8400 4.05ghz ) hoffnungslos überfordert ist , mit der GTX 470 , dachte ich mir ich könnte mich so noch 1 Jahr durchschlagen u eventuell PhysX Programmierte Spiele in einiger massen anschaulicher Grafik zu spielen. Da meiner Kenntnissen nach .. eine GPU höhere Leistung zur " Effektberechnung " hat, als eine CPU und ich somit die CPU entlasten könnte.

Oder ist es total sinnlos , da die GTX 470 ohnehin schon mehr od weniger diese Aufgabe erfüllt ?! Und ich sogleich auf einen Quadcore aufstocken sollte, was zu empfehlen wäre!


MfG
 
Brauchst kein SLI um die zweite Karte als Physx nutzen zu können. Einfach reinstecken, booten und in der nvidia Systemsteuerung Physx auf die 8800 stellen .Obs schneller is weiß ich net, musst halt mal nen Physx Benchmark mit und ohne machen :)
 
Dann wird sie jetzt eingebaut!


Danke schön :)
 
Die Karte bringt dir nur etwas unter Physx Spielen, aber das sind mittlerweile schon eine Menge.

Aufgrund des hohen Stromverrbauchs solltest du das Teil wenn möglich nur einbauen, wenn du gerade solche Spiele zockst. Ein paar Frames solltest du damit schon mehr bekommen, aber ob es sich wirklich lohnt hängt wohl ganz vom Spiel ab.
 
Es gibt ine menge PhysX Spiele, richtig, aber so gut wie keine berechen PhysX über GPU. Die letzten waren Batman, Mirrors Edge Dark Void und Mafia 2. Und andere Spiele die PhysX nutzn berechnen PhysX immer über CPU, gleich welche Karte drin steckt.
 
Ich glaube, dass sich der Mehrwert in Grenzen halten wird, da die GTX470 einfach so viel Rohleistung bereitstellt, dass hier der E8400 schon überfordert ist. Wenn du jetzt die 8800GTS nutzt, wird sich wohl nur der Stromverbrauch erhöhen, wird am Ende aber auch auf das Spiel ankommen. Sicher kannst du dir nur sein, wenn du es ausprobierst, aber ich schließe mich an, lieber die GTX auch PhysX berechnen lassen.

Und das mit der Berechnung über CPU stimmt. Es ist eigentlich traurig, aber wird leider zu oft nur über CPU angeboten.
Bei Nvidia wird auf der Nzone-Homepage einmal aufgelistet, welche Spiele wirklich von GPU-PhysX profitieren.
 
Um mal konkret die GPUbeschleunigten rauszupicken:

Batman: Arkham Asylum Rocksteady Studios
Crazy Machines II FAKT Software
Cryostasis Action Forms
Dark Void Airtight Games
Darkest of Days Phantom EFX
Tom Clancy's Ghost Recon Advanced Warfighter 2 (GRAW2) GRIN, Ubisoft Paris
Metal Knight Zero Online (MKZ) ObjectSoftware Limited
Mirror's Edge DICE
Nurien Nurien Software
PT Boats: Knights of the Sea Akella
Sacred 2 ASCARON Entertainment
Star Tales QWD1
Unreal Tournament 3 Epic Games
Unreal Tournament 3: Extreme Physics Mod Epic Games
U-WARS Biart Studio
Warmonger: Operation Downtown Destruction Net Devil

Viele sind also ganz und gar nich, einige davon sind auch ziemlich grottig.
In Spielen wie Batman und Mirros Edge hat man mit GPU-PhysX auch wirklich mehr Performance bei gleicher Quali und/oder bessere Grafik.

Edit: da war einer schneller
 
Jop, ich war auch mal schnell genug. :)

Man muss auch noch hinzufügen, dass manche Spiele das nur per Patch unterstützen.
Unreal 3, Sacred 2 und bei Mirror's Edge sind die Spiele, wo ich das genau weiß. Hier werden im Prinzip nur weitere Effekte hinzugefügt, wie spezielle Zauberanimationen bei Sacred 2, bei ME sind das Stoff- und Glaseffekte.
 
metro2033 nutzt ganz sicher auch physX. als ich die GTX460 grad frisch eingebaut hatte, habe ich mir dieses spiel angetan und einmal mit CPU-physik und eimal mit GPU-physik (per forceware forciert) die frames verglichen. (fraps lief mit).

mit cpu-physik lässt sich die framerate auf 9-10fps drücken, wenn grad viel müll durch die luft fliegt; etwa weil man auf wände ballert. mit GPU-physik verdoppelt sich dieser min-wert auf 20fps.

also ich spiels nicht mehr ohne.


(..)

mfg
tobi
 
Im Nvidia Treibermenü kann man etwas einstellen so das angezeigt wird, ob PhysX über CPU oder GPU läuft. (physx visual indicator unter 3D Settings) Dann wird im Spiel ein entsprechendes Overlay angezeigt. Da die meisten Spiele keine PhysX über GPU unterstützen ist es im Endeffekt dann auch egal ob man im Treibermenü GPU PhysX forciert.

Metro 2033 ist ein Spiel das offiziell GPU-PhysX unterstützt. Daher ist der Performancegewinn auch nicht verwunderlich. ;)
 
Zuletzt bearbeitet:
das bestätigt dann ja meien beobachtung.. also hier nicht auf GPU-physX zurückzugreifen, wenn man schon eine NV-karte im system hat, wäre ja total dumm.. wer droppt schon gern auf 10fps.. *gg*


(..)

mfg
tobi
 
Für mich stellt sich halt eben noch die Frage ob ich so eventuell noch meine CPU etwas entlasten könnte.
Da generell meine CPU der limitierende Faktor ist in Spielen wie zb. Bad Company 2. Da langweilt sich meine Grafikkarte bei ca. 60% . Übertakte ich das Teil auch noch geht sie mir schon fallweise in den ersten Energiesparmodus von 405mhz der GPU *lol* . Da ich so die Auslastung noch weiter runterdrücken kann auf ca. 50% .. Die GTX hat schon ordentlich Dampf , soviel steht jedenfalls fest.

U die Bildqualität von Nvidia .. ist doch irgendwie besser als bei ATI oder bilde ich mir das jetzt nur ein?! Das fiel mir eig sofort auf ..

Somit wär es interessant .. die CPU mittels PhysX etwas zu entlasten. Wie gesagt , in Spielen wie Metro oder Mafia.. U ich brauchte mir noch keinen Quad kaufen ( der Q9550 kostet mir etwas zuviel )(( )
 
das bestätigt dann ja meien beobachtung.. also hier nicht auf GPU-physX zurückzugreifen, wenn man schon eine NV-karte im system hat, wäre ja total dumm.. wer droppt schon gern auf 10fps.. *gg*


(..)

mfg
tobi


Oder man schaltet es lieber komplett aus ich spiele nicht mit 20 FPS.

@ Baltasar. Einen Quad brauchst du auch nicht PhysX per CPU nutzt nur einen Kern und veraltete Rechenbefehle. Würde mich auch nicht wundern wenn eine optimierte Version per CPU ähnlich schnell wäre wie mit einer zusätzlichen Mittelklassekarte. Einen potenten Quad vorrausgesetzt.
 
Zuletzt bearbeitet:
nv lässt dir bessere kontrolle über die bildqualität als ati und es lassen sich sichtbare qualitätsunterschiede (u.a. beim texturfilter) zwischen ati und nv provozieren. einigen fallen die unterschiede auf, andere wissen nicht, auf was man achten muss oder verstehen die technik dahinter nicht.. *schulterzuck* ich bin diese thematik betreffend auch eher pro-NV und kontra-ATI.

dass gpu-physx unter metro die cpu entlastet, würde ich unterschreiben.. und ich habe nicht grad ne langsame CPU.

bc2 habe ich mir vor 2 wochen runtergeladen, aber bisher nur kurz reingeschaut.. das läuft aber anständig.

2010-08-14 14:57:19 - BFBC2Game
Frames: 70093 - Time: 1415788ms - Avg: 49.508 - Min: 17 - Max: 63


Oder man schaltet es lieber komplett aus ich spiele nicht mit 20 FPS.

es geht um minframes, nicht gemittelte 40-60 average.



(..)

mfg
tobi
 
Zuletzt bearbeitet:
@ Baltasar. Einen Quad brauchst du auch nicht PhysX per CPU nutzt nur einen Kern und veraltete Rechenbefehle.

Da ist dann aber die Anwendung Schuld weil schlecht gemacht. Man kann mit PhysX auch mehr als einen Kern ausnutzen wie man beim PhysX FluidMark sehr gut sehen und auch einstellen kann. Da sieht man dann auch sehr gut das PhysX selbst mit 3 CPU Kernen gegen einen GPU gehörig ab stinkt.

SLI Brücke passt auch übrigens gar nicht, da die Abstände der Anschlüsse für die Brücke bei jeder Kartengeneration etwas versetzt ist. So das man gar nicht erst zwei unterschiedliche Karten fälschlicherweise verbinden kann.

PhysX braucht allerdings auch ne dicke Karte wenn es nur ein wenig mehr genutzt wird, wie man an Mafia so schön sehen kann. Und wenn die Karte dann auch zu wenig Bandbreite am PCIe Slot hat kann man sich das ganze gleich schenken.
Siehe auch hier...
http://www.planet3dnow.de/vbulletin/showpost.php?p=4276860&postcount=177
 
Zuletzt bearbeitet:
Hast den Bericht gelesen? Es ist Absicht das PhyX nur einen Kern und veraltete Befehle nutzt.

WIe gesagt ich gehe jede Wette ein das mit einer Unterstützung von SSE3 und einem Quadcore man sehr viel mehr rausholen kann.
 
Hast den Bericht gelesen? Es ist Absicht das PhyX nur einen Kern und veraltete Befehle nutzt.

Hast du das Tool mal gesehen? Es ist Quark das man mit PhysX nur einen CPU Kern nutzen kann. Mit drei Kernen ist PhysX mehr als 4x so schnell als wenn es nur auf einem Kern läuft. Das dürfte all die Märchen von inefektiv und nicht mehrkernfähig vom Tisch fegen. Aber wenn man lieber nur irgendwelchen Artikeln glauben schenkt als ein Tool zu saugen das frei verfügbar ist...

Auch allein wenn man mal schaut wie hoch so die Rechenleistung eines CPU Kerns ist und die einer Grafikkarte, muss man mitbekommen das CPU PhysX anscheinend sehr effektiv arbeiten muss. Denn für die geringe Rechenleistung schafft die CPU erstaunlich viel.
 
Zuletzt bearbeitet:
Ändert nichts daran das es das in Games oft eben nicht macht und dazu noch wirklich grausige Befehle verwendet.
 
Praxis zählt und in der Praxis gibt aus sauwenig Games, die es auf der GPU nutzen und noch weniger die es sinnvoll nutzen. Die Hälfte dieser Titel haben nur nutzlosen Eyecandy eingebaut um NVidias Subventionen zu erhalten. Bei Sacred 2 sucht man die Effekte fast schon mit der Lupe.
 
Ändert nichts daran das es das in Games oft eben nicht macht und dazu noch wirklich grausige Befehle verwendet.

Und das wiederum ändert trotzdem nichts daran das die Behauptung schlicht falsch ist. Ich habe ein Beispiel aufgezeigt mit dem das alles klar widerlegt wird. Warum es andere nicht so nutzen ist völlig egal. Vielleicht nutzen sie auch nur CPU PhysX weil sie so eine kostenlose und vor allem fertige Physik Engine haben wollen? Und für das was da berechnet werden muss, die CPU eben völlig ausreicht.


@yourgreatestfear PhysX ist nunmal nur für eyecandy, für was soll es denn sonst gut sein? In Spielen sehe ich keinen anderen Einsatzzweck dafür.
 
Zuletzt bearbeitet:
@yourgreatestfear PhysX ist nunmal nur für eyecandy, für was soll es denn sonst gut sein? In Spielen sehe ich keinen anderen Einsatzzweck dafür.


Naja ich hatte damals so vor 4-5 Jahren gehofft das Physik nun vollständig auf alles angewandt wird, also dann auch hochgradig Spielrelevant ist. (physikalisch korrekte Projektile, Wände, Statik, Wind usw...) Davon ist man ja wie man sieht meilenweit entfernt. Daher ist die Entwicklung schon sehr enttäuschend. *noahnung* Ist ja auch nicht mittelfristig zu sehen das da etwas passiert.
 
PhysX ist nunmal nur für eyecandy, für was soll es denn sonst gut sein? In Spielen sehe ich keinen anderen Einsatzzweck dafür.

Ist die Frage dein ernst?
Eyecandy ist eher ein Nebenprodukt einer guten Physikengine, da ihre Effektivität mehr Leistung für Eyecandy freimacht. Der eigentliche Sinn aber ist es die Spielwelt durch ihr Verhalten realistischer zu gestalten. Siehe Ragdoll und ähnliche Anwendungen. Wie Physix ein Spiel beeinflussen sollte zeigt Warmonger in Ansätzen oder die speziellen UTlevel dafür.
Und genau da schiesst sich der GPU-PhysX ins eigene Knie. Denn wenn man die Physikengine für spielbeeinflussende Dinge mal einsetzen will schränkt man seine potenzielle Käuferschaft auf einen Schlag extrem ein oder programmiert alles doppelt. Das GPU-PhysX also heutzutage nur Eyecandy liefert und keine besseren Spiele ist eher die Folge der schlechten Einsetzbarkeit von GPU-Physik die an bestimmte Hardware gebunden ist.

Hoffe das Bulletin bald die OpenCLimplementierung abschließt und damit mal eine vollwertige und breit einsatzbare GPU-Physik verfügbar wird, womit Physik auch mal die Spielmechanik beeinflußen darf statt nur dolle Hollywoodeffekte zu erlauben.
 
Zuletzt bearbeitet:
Wo ist denn das falsch das grausige Befehle genutzt werden, das ist ein Faktum! Das es nicht von Haus aus auf Multicore ohne Anpassung läuft sollte auch klar sein, nur weil es bei einem Tool so eingeproggt wurde ist es auch nicht besser.

Imho finde ich das man wenn man schon auf so einem Haufen Software sitzt man da viel mehr machen MUSS als nur eyecandy Physik. Richtige spielentscheidende Physik gehört da rein. Für alles andere braucht man keine extra GPU Berechnung, da täte es SSE2-4 auch.
 
Ist die Frage dein ernst?
Eyecandy ist eher ein Nebenprodukt einer guten Physikengine, da ihre Effektivität mehr Leistung für Eyecandy freimacht. Der eigentliche Sinn aber ist es die Spielwelt durch ihr Verhalten realistischer zu gestalten.

Nur reicht die Rechenleistung dafür schlicht noch lange nicht. Und das ist das Problem, wenn man mit ein paar Bekleidungsstücken schon eine GTX280 zum schwitzen bekommt siehe Mafia2. Will auch noch wer behaupten das das GPU PhysX schlecht und langsam ist? Das eine GPU ne merklich höhere Rechenleistung hat als ein oller Quadcore dürfte auch bekannt sein.

@Sefegiru der besagte Benchmark nutzt auch SSE für die CPU PhysiX Variante...

Hier wird wieder mit aller Macht versucht etwas schlecht zu machen was es gar nicht ist. Dann wird noch nen böser gesucht, in diesem Fall nVidia die an allem Schuld sind. Zeigt man dann ein Programm das all die beschriehenden Nachteile gar nicht hat. Kommen weitere haltlose Kommentare.
Ist jetzt nVidia schuld das Millionenschwere Game Studios nicht das schaffen was ein paar Freaks in einen kostenlosen Benchmark realisieren? Soll nVidia die Spiele etwa alle selber schreiben?
 
Erm, wenn NVidia und paar Benchmarkprogger die großen und kleinen Entwicklerstudios nicht überzeugen können, selbst mit finanziellen/personellen Subventionen von NVidia, dann ist das nicht Schlechtmachen einer Technologie. Man erkennt eher die fehlende Usability der Lösung an.

Rechenleistung hat ein aktueller GamerPC mehr als genug, nur scheut jedes Studio die Kosten/ den Zeitaufwand, diese effektiv zu nutzen, egal ob auf CPU oder GPU. Wenn dann die Mafiaentwickler ihren wertvollen Personalaufwand und die verfügbare Rechenleistung mit solchen Nichtigkeiten wie Kleidungsstücken verschwenden, dann läuft was doppelt schief.

Wer mal SW The Force Unleashed mit der verwendeten Euphoria + Havok Engine anschaut, wird bei Mafia sich nur fragen, wieso trotz GPU-PhysX so wenig dolles passiert. Die paar Clotheffekte und das bissl Glas ist erbärmlich für eine dedizierte Berechnung.
 
Zurück
Oben Unten