NVIDIA - PhysX

isigrim

Grand Admiral Special
Mitglied seit
26.08.2008
Beiträge
2.139
Renomée
84
Wieso sollten die Spielehersteller PhysX auf CPU-Kernen nutzen? Das ist auch bei Multithreading eine ziemliche Verschwendung von kostbaren CPU-Ressourcen.

Nvidia sollte das vielleicht einfach zum Anreiz nehmen, PhysX mal auf OpenCL-Füße zu stellen, sonst werden die Spieleschmieden wahrscheinlich eher zu Bullet oder Havok greifen.
 
spielrelevante physik rechnet immer die CPU. nur zusatz-physik (nichts als ein visueller aufsatz) wird über die grafikkarten -APIs berechnet.


(..)

mfg
tobi
 
J
PhysX ist doch schon lange bestandteil mancher Spiele, also bei mir ist PhysX installiert. (z.B: wegen Metro2033)
Dachte PhysX ist ein NVIDIA GPU only Feature.
Und plötzlich wäre es auch auf AMD Hardware machbar?
 
natürlich In software..
..und auch nicht auf der graka gerechnet..


(..)

mfg
tobi
 
Stimmt aber bei der Berechnung von PhysX über die GPU bekommt man mehr Details zu sehen.

Bricht eigentlich der Kepler per GPU-PhysX genau so ein wie die alte Chips? Oder haben sie dort auch Optmierungen vorgenommen?
 
Stimmt aber bei der Berechnung von PhysX über die GPU bekommt man mehr Details zu sehen.
Die Menge der Details ist vom der Art der Beschleunigung unabhängig.

Bricht eigentlich der Kepler per GPU-PhysX genau so ein wie die alte Chips? Oder haben sie dort auch Optimierungen vorgenommen?
Müsste man mal prozentual rausrechnen, gegenüber GF110 ist ein GK10x aber iirc schlechter dran.
 
Die Menge der Details ist vom der Art der Beschleunigung unabhängig.

Müsste man mal prozentual rausrechnen, gegenüber GF110 ist ein GK10x aber iirc schlechter dran.


Ich hab mich zwar nur nebenbei damit beschäftigt aber bei vielen Spielen die mit PhysX werben gibt es doch einen drastischen Unterschied zwischen CPU und GPU-Berechnung.
 
Wie gesagt, die GPU-Beschleunigung beschleunigt (die Fps), genau die gleichen Effekte selbst laufen auch auf der CPU - nur eben (viel) langsamer.
 
ich wüsste jetzt keinen titel, der physX unterstützt und der gleichermaßen die selbe visuelle (effekt)physik per CPU bietet, wie über die NV-API.

man muss zwischen engine-physik (spielrelevant) und effekt-physik (physX; nur optik) unterscheiden.


(..)

mfg
tobi
 
Du weißt keinen? Jeder Titel bietet das.

Jegliche Effekt-Physik läuft auch auf der CPU ...
 
Würde auch laufen, nur viel langsamer, weil es auch nicht sonderlich optimiert ist und Grafikkarten besser geeignet sind. Aber Nvidia lässt es ja soviel ich weiß bei PhysX Titeln ja nicht zu. Das läuft dann eben auch nur mit entsprechenden Grafikkarten.
 
Nicht würde, es tut. Wenn du keine Geforce hast, macht es die CPU. Erschreckend, wie wenig viele über PhysX wissen, idR gibt's stattdessen nur einen Beißreflex.
 
PhysX ist keine API, sondern eine Library. OCL oder DC ist ja erstrebenswert, ne Physik-Bibliothek brauchst du aber dennoch.

Zudem, warum sollte sich PhysX bald erübrigen? Es ist Teil des IPP der UE4 und wird bei PS4-Spielen genutzt. Nur weil Huddy das gerne hätte, erübrigt sich PhysX sicherlich nicht bald.
 
Nicht würde, es tut. Wenn du keine Geforce hast, macht es die CPU. Erschreckend, wie wenig viele über PhysX wissen, idR gibt's stattdessen nur einen Beißreflex.

sicher, dass wir von den gleichen effekten reden?

ich hätte alice MR, batman, metro und mafia II hier - erklärt doch mal, wie man da die effektphysik von physX aktiviert, wenn man keine NVidia-karte verwendet. jetzt bin ich gespannt.. *lol*

edit zu mafia:
Damit ihr PhysX samt APEX in seiner vollen Pracht überhaupt nutzen könnt, muss zwingend eine NVIDIA Grafikkarte in eurem Rechner stecken. Zudem wird empfohlen, die PhysX-Treiber (Download) stets aktuell zu halten.
quelle


edit zu metro
Nachbemerkung:

Um alle Diskussionen und Fragen nach den aktuellen AMD-CPUs zu begegnen: es ergibt derzeit unterhalb von ca. 4 GHz kaum einen Sinn, bei aktuellen AMD-CPUs auf die CPU-Physik zu setzen, während es ein Phenom II 1090T X6 mit 3.6 GHz noch einigermaßen packt (siehe auch unser eingangs erwähnter Test von 2010). Weil es aber an dieser Stelle nun mal nicht ums Prozessor-Schaulaufen zwischen Intel und AMD geht, haben wir diesen Punkt also sehr bewusst ausgeklammert.

quelle

edit 3 allg. zu physx

Einschätzung

Das PhysX-SDK von Nividia bietet entgegen einiger Schlagzeilen sehr wohl eine Mehrkernunterstützung für CPUs, die bei richtiger Anwendung sogar gefährlich nahe an die Leistung der GPU-basierten Lösung heran käme, wenn keine zusätzliche PhysX-Karte verbaut würde. Trotz allem hat die Sache bisher einen Haken. Während PhysX die Verwaltung der Threads und die Verteilung automatisch vornimmt, sobald die GPU-basierte Variante aktiv ist, müssen die Programmierer in der CPU-Variante selbst die Verantwortung übernehmen.

Warum wird die vorhandene Basis nicht oder nur selten genutzt?

weiterlesen


schade, war wieder nur dummes gequatsche. würde mal mehr spielen als rumsabbeln..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Du kannst bei einer Geforce von GPU-PhysX auf CPU-PhysX umschalten. Die (teilweise) Blockung bei einer Radeon ist Treiber-bedingt und lässt sich mit Mod-Treibern aushebeln.
 
mich interessiert nur, wie sich auf einer HD7970 die physX-stufen aktivieren lassen, die ich sonst nur mit nvidia-hardware bekomme. mein NV-equipment (gtx titan + gtx 690) ist stark genug, dass ich nicht auf CPU-berechnung umschalten muss. das klaut wertvolle CPU-zeit und performt auch nirgends besser.

die krux ist auch gar nicht die performance, sondern dass AMD-user nie das zu sehen kriegen, was mit einer geforce als physX-beschleuniger auf dem schirm landet. und DAS ist der grund, warum immer soviele pipi in die augen kriegen. alle möchten gern die hohen stufen aktivieren, aber NV ist böse und erlaubt das einfach nicht.. pöse puben.. *pfff*

edit:
ich finde nichtmal dass die proprietären lösungen (cuda, physX, 3dvision) schlecht sind, denn sie versüssen seit jahren meine freizeit, sofern ich sie mit PC-crap, video/videospielen verbringe. klar.. ich hätte jahrelang wettern können, wie schlimm solche insellösungen sind und prognostizieren, was mit EAX ja auch passiert ist -> aber ich lebe bewusst und ich warte nicht bis es universelle lösungen für bestimmte interessensgebiete gibt - bis es soweit ist, bin ich 60. ich behaupte sogar, dass es ohne CUDA niemals openCL gegeben hätte. auch wenn letzteres kaum relevanz hat, während ersteres sogar in günstigen magix-produkten seit jahren unterstützung findet und dem user einfach einen mehrwert beschert. ohne die proprietäre CUDA-API hätte mein notebook anno 2007 niemals AVC-hd abspielen können (coreAVC hats möglich gemacht). mancheiner hätte vllt. noch 3 jahre gewartet - ich aber nicht.. die hard- und software war ja vorhanden.. ich würde sagen, wer vorhandene techniken aus fadenscheinigen gründen verschmäht und auf evtl. kommendes spekuliert, verschwendet sein leben oder hat keinen wirklichen bedarf.
btw,
wenn ich über flummis schreiben würde, obwohl mich flummis voll nicht jucken, könnte ich den flummifans auch empfehlen auf den superflummi zu warten, der voraussichtlich 2033 erscheint; nur die flummispieler die heute 20 sind, interessiert das mit 40 einfach nicht mehr.

edit:
auf modtreiber steht mein 64bit windows nicht sonderlich.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Vielleicht geht es ja wenn du nvidia auf die füße trittst, die CUDA Bindung für die GPU Beschleunigung fällt, die Anbindung per OpenCL oder DirectCompute stattfindet, die Treiber sperren ausradiert werden und somit die Berechnungen auf allen GPUs vorgenommen werden können?

Es liegt einzig und allein an nvidia selbst.
 
Ja sie unterstützen multicore, aber per standard eben nur x87 statt SSE und aufwärts. Sie haben anderes gesagt aber das stimmte einfach nicht und seitdem hat sich das meines Wissens auch nicht geändert. Kann aber natürlich sein. X87 Code ist aber arg lahm im Vergleich zu SSEx.....

http://physxinfo.com/news/3391/physx-x87-and-sse/

http://www.itproportal.com/2010/07/08/nvidia-were-not-hobbling-cpu-physx/

Das sollte aber nun als offtopic reichen. Zur Not ein neues Thema aufmachen, denn hier wird ja gekeplert ;)
 
Der Artikel von RWT ist bald drei Jahre, mittlerweile ist SSE drin AFAIK.
 
es reicht doch jetzt wirklich, oder?
Abos zu Threads mit solchen Inhalten habe ich nicht und will ich auch nicht.
 
So, ich habe das aus dem Kepler-Thread herausgeschnitten...
Urspünglicher Thread: NVIDIA - Kepler
 
One of the best examples is 3DMarkVantage which can use 12 threads while running in software-only PhysX.
This can easily be tested by anyone with a multi-core CPU system and a PhysX-capable GeForce GPU

"PhysX is a cross platform solution. Our SDKs and tools are available for the Wii, PS3, Xbox 360, the PC and even the iPhone through one of our partners.
We continue to invest substantial resources into improving PhysX support on ALL platforms–not just for those supporting GPU acceleration.

Quelle

Ich meine Nvidea behauptet das reines Software PhysX multicore unterstüzt und zur gleichen Zeit sagt Nvidea das es nur mit einer PhysX fähigen GPU getestet werden kann- so viel zum Thema: "not just for those supporting GPU acceleration"


Software PhysX über die CPU kann auch nix bringen am PC mit 2 Threads für PhysX im moment, vorallem da einer der Kerne fast immer bei 100% ist, während ein anderer sich bei max.30% begnügt und 2 weitere sich bei max.70% befinden, sieht man ja das die 2 Threads den Kernen so zu geteilt werden das einer den rest ausbremst.
*30% & 100% bei Explosionen mit Rauch& durch Wind bewegte Dinge


SSE soll schon dabei sein? In der SDK vielleicht, ändert aber nichts daran das die neuste PhysX Software die SDK 3.0 nicht unterstützt.

Lasst euch aber ruhig einreden das CPUs zu schwach sein dafür, ignoriert weiter die falsche Skalierung, hinauszögern von Support der SDK 3.0 (die diesen entgegen wirken)

EDIT: Ich bin mir sicher da noch etwas mehr Perfomace über die CPU berechnung geht, wenn man sich aber die unstimmigkeiten seitens Nvidea anguckt- frage ich mich echt was soll das?
 
Zuletzt bearbeitet:
Du verstehst den Artikel offenbar völlig falsch. Demnach sollte dein Ansprechpartner nämlich der Softwarehersteller sein, bei dem "dein Problem" auftritt.
PhysX Unterstützung gibt es heute sogar schon auf Smart Phones und Tablets.
 
Zurück
Oben Unten