AMD Karte + nVidia Karte für PhysX?

CadillacFan77

Admiral Special
Mitglied seit
08.03.2005
Beiträge
1.756
Renomée
19
Standort
Winterthur, Schweiz
Hallo zusammen,

Hat schon jemand Erfahrung gemacht mit gemischten AMD und nVidia Karten auf Win7 (64 Bit)?

Da die AMDs ja afaik kein PhysX können und ich nun eine 6950@6970 habe, überlege ich mir meine alte 8800GT für PhysX zu behalten.

Funktioniert das überhaupt und vielmehr: macht es auch Sinn?
 
Nein, das wird nicht möglich sein, denn PhysX ist bei neuren Treiber Releases nur freigeschaltet, wenn die primäre Grafikkarte ein nVidia Modell ist.

Und hier steht in anderem Zusammenhang, dass nVidia diese künstliche Beschränkung auch nicht so schnell aufgeben möchte: Klick

Es soll zwar inoffizielle Modifikationen der nVidia Treiber geben, die dies umgehen, aber da kann nVidia beim nächsten Release schnell einen Riegel vorschieben.
 
Nein, das wird nicht möglich sein, denn PhysX ist bei neuren Treiber Releases nur freigeschaltet, wenn die primäre Grafikkarte ein nVidia Modell ist.

Und hier steht in anderem Zusammenhang, dass nVidia diese künstliche Beschränkung auch nicht so schnell aufgeben möchte: Klick

Es soll zwar inoffizielle Modifikationen der nVidia Treiber geben, die dies umgehen, aber da kann nVidia beim nächsten Release schnell einen Riegel vorschieben.

Ich hatte die gleiche Idee mit der gleichen 8800GT und bin ebenfalls zu dem Ergebnis gekommen, daß es nur Ärger und Arbeit macht und kaum Nutzen. Schade Herr NVIDIA.
 
Du mußt Dir einfach mal die kleine Anzahl an Spielen anschauen, die tatsächlich von HARDWARE-beschleunigtem PhysX Gebrauch machen (die meisten Spiele, die mit PhysX irgendwas machen, nutzen ja nur die Softwareversion).

http://physxinfo.com/

Wenn Du eines dieser Spiele intensiv spielst, dann könntest Du das mal mit diesem Treiber-Hack probieren, gerade wenn Du die Karte sowieso noch rumliegen hast. Selbst dann ist aber noch nicht gesagt, wie viel das tatsächlich bringt, das mußt Du dann bei dem jeweiligen Spiel unter diversen Settings mal austesten.

Falls Du davon aber nichts spielst, dann hast Du aber nur eine zusätzliche Karte im Rechner, die Strom verbraucht und nichts nützt, ich würde sie dann also ausbauen.
 
Ganz schön doof von nVidia, passt aber zur Firma - ist ja Intelmäßig.

Aber warum sich selber um Kunden bringen? Meinen die echt dass nun jemand genau deswegen zu 'ner GeForce greift?

Ich halte das ja jetzt nicht gerade für schlaues Marketing.

BTW: Weder bei Batman: AA, noch Mass Effect 1&2, Mirror's Edge oder Metro hab ich nen großen Unterschied zwischen PhysX oder kein PhysX feststellen können, und ich hab die eigentlich alle mal auf ATI- und mal auf nVidia-Karte gespielt... Also nen reines Kaufargument ist's ja nicht gerade.

Naja gut, ich muss ja nicht alles verstehen, was nVidia macht, die sind ja auch ohne mich Marktführer geworden.
 
die treiberteams, die sicherstellen, dass spieleprofile gepflegt und mit kompatiblitätsbits (u.a. für aa-modi in verbindung mit postprozess) versehen werden, sodass SLi, PhysX und stereoskopie funktionieren, würden sich mit der zulassung von mischkombos mit AMD-karten doch nur tonnen sinnloser verifizierungsarbeit aufhalsen.

mein x38-mainboard ist offiziell auch nur für crossfire freigegeben und trotzdem funktioniert mit einem hack SLi. solange ich mit 32bit windows unterwegs bin, gibts auch mit aktualisierten chipsatz- respektive grafikkartentreibern keine sorgen; unter 64bit ist alles ein bisschen anders.. besonders wenn's mit gehackten oder nicht signierten treibern in zusammenhang steht.

ich verzichte auf SLi und benutze einfach ne kleine NVidia als PhysiX-karte. das braucht keine hacks und läuft einfach ;-)


(..)

mfg
tobi
 
Zuletzt bearbeitet:
ich verzichte auf SLi und benutze einfach ne kleine NVidia als PhysiX-karte. das braucht keine hacks und läuft einfach ;-)


(..)

mfg
tobi

Ich dachte das wäre genau das wovon wir hier reden, was nicht gehen soll?
Oder hab' ich da was falsch verstanden? ???
 
Ist vielleicht etwas OT, aber kann man eine Nvidia-Karte zum Folden in ein System mit ATI-Karte stecken?
 
Guten Abend zusammen,

Vielen Dank für die vielen Posts. Ich spiele von den HW unterstützten Spielen tatsächlich nur 2 (Metro 2033 und Mafia 2), daher wird sich der Aufwand wohl kaum lohnen.

Allerdings bin ich sehr enttäuscht von nVidia, diese Kombination bewusst zu sperren, obwohl es "früher" funktioniert hat. Ich werde daran denken, wenn das nächste mal eine Graka ansteht (hätte ich solche Geschäftspraktiken früher gewusst wäre die Entscheidung 6950 vs. GTX 570 viiiiiiiel einfacher gewesen - GEGEN nVidia 8-()

Danke für die fachkundige und schnelle Hilfestellung! *great*
 
Allerdings bin ich sehr enttäuscht von nVidia, diese Kombination bewusst zu sperren, obwohl es "früher" funktioniert hat. Ich werde daran denken, wenn das nächste mal eine Graka ansteht (hätte ich solche Geschäftspraktiken früher gewusst wäre die Entscheidung 6950 vs. GTX 570 viiiiiiiel einfacher gewesen - GEGEN nVidia 8-()

Danke für die fachkundige und schnelle Hilfestellung! *great*

Mich ärgert´s zwar eigentlich auch aber andererseits haben sie nicht unrecht... Wer weiß wie viele Probleme aus einer solchen Mischung entstehen würden und NVIDIA darf dann den Support für AMD/ATI leisten?

Ich denke entweder ist Hardware Physik egal oder es wird Zeit, daß Herr AMD sich mal bequemt etwas passendes nachzuschieben. Spätestens über Opencl sollte das doch berechenbar sein.
 
also ich verwende
4870X2 mit 9600GT
5870 mit GT240
mit den Treiberhack funktierniert wunderbar und in Spielen wie Metro sieht man ganz klar nen Unterschied.
Was man aber nicht braucht ist eine super große Physx KArte, da sie eh nur kleine Berechungen macht.
 
Ganz schön doof von nVidia, passt aber zur Firma - ist ja Intelmäßig.

Aber warum sich selber um Kunden bringen? Meinen die echt dass nun jemand genau deswegen zu 'ner GeForce greift?

Ich halte das ja jetzt nicht gerade für schlaues Marketing.

BTW: Weder bei Batman: AA, noch Mass Effect 1&2, Mirror's Edge oder Metro hab ich nen großen Unterschied zwischen PhysX oder kein PhysX feststellen können, und ich hab die eigentlich alle mal auf ATI- und mal auf nVidia-Karte gespielt... Also nen reines Kaufargument ist's ja nicht gerade.

Naja gut, ich muss ja nicht alles verstehen, was nVidia macht, die sind ja auch ohne mich Marktführer geworden.

Also bei Batman AA sieht man schon einen Unterschied aber sind halt nur optische Spielereien und die nehmen später auch wieder massiv ab,
 
Also ich verwende manchmal (wenn ich halt nen Physx Spiel in Betrieb habe) eine
ATI 5870 als Hauptkarte und ne 8800GT 256MB Passiv gekühlt für Physx.

Was man benötigt ist ein älterer Nvidia Treiber und einen Treiber Patch. Gibt verschiedene,Mußte mal selber googlen.

Danach geht es mit der Kombo. Die neuen Treiber funktionieren net, da hat Nvidia eine ATI Sperre reingebaut.

Die Nvidia Karte ist bei mir temporär ausgebaut. Halt wenn ich nicht spiele. Oder wenn ich halt keine Physx Spiele in Beschlag habe.

Habe mir erst kürzlich Venetica gekauft. Dafür werde ich mit die 8800er wieder mal einbauen. Ich sehe das nämlich net ein, dass die 2. Graka die ganze Zeit mitläuft und Strom schluckt.

Ansich kann ich sagen, dass manche Spiele wie Batman AA ziemlich gut aussehen mit Physx. Bei anderen Spielen fällt es net so auf.

Ich habe die kleine Geforce mal bei Ebay für unter 30,- EUR gebraucht geschossen und die reicht auch völlig, zumindest für meine Bedürfnisse.

Aber hätte ich mir jetzt extra ne neue Nvidia gekauft, hätte ich mich geärgert. Ich würde Dir eine gebrauchte 8800 oder 9800 empfeheln. Wenn es geht eher 512 MB.

Was Du noch wissen mußt ist, dass die kleine Nvidia das System nach FPS etwas ausbremmst. Spielt für mich aber keine Rolle, weil es immer noch spielbar ist. Habe aber auch nen Hexacore 1075T und 8GB Ram + 5870.

Meine Empfehlung: gebrauchte Physx Karte bei Ebay ersteigern und ausprobieren. Aber keine neue Karte für teuer Geld kaufen.

Hoffe geholfen zu haben.

Gruß
 
Danke für die Info mit den Treibern

Ich glaube aber, dass ich das sein lasse. Immer drin braucht wie gesagt zu viel Strom, und öfters ein- und ausbauen mag ich nicht.

Auch wenn ich die 8800GT (512er) bereits habe (alte Karte von mir), werd ich sie wohl verkaufen oder weggeben....
 
G80 und G92 sind keine guten physX-karten und spruchreif strom verbrauchen die zusätzlichen karten eigentlich nur, wenn man bildschirme dran anschliesst oder sie halt per CUDA/PhysX fordert. empfehlenswerter als G92 ist z.b. ein GT215 (GT240) für 60 euro (neupreis).


(..)

mfg
tobi
 
empfehlenswerter als G92 ist z.b. ein GT215 (GT240) für 60 euro (neupreis).
Sollte man dann nicht gleich zur ähnlich teuren GeForce GT 430 greifen? Sie sollte ähnlich sparsam sein.

Und die halbierte Anzahl an TMUs, die sie in Spielen ausbremst, dürfte bei PhysX nicht zum Tragen kommen.
 
kann ich nur spekulieren, aber ich würde sagen nein.. GF108(GT430) ist eig. von den eckdaten überall unterlegen (ROPs, TMUs, texelleistung, speicherbandbreite). GT215 (GT240) leistet theoretisch an die 400GFlop/s; die fermikarte (GT430) dümpelt unter 300GFlop/s rum. bei der speicherbandbreite stehen 28GByte/s (GT430) gegen irgendwas zwischen 30 bis 55GByte (GT240); habe grad keine genauen zahlen im kopf.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
G80 und G92 sind keine guten physX-karten und spruchreif strom verbrauchen die zusätzlichen karten eigentlich nur, wenn man bildschirme dran anschliesst oder sie halt per CUDA/PhysX fordert. empfehlenswerter als G92 ist z.b. ein GT215 (GT240) für 60 euro (neupreis).


(..)

mfg
tobi

Wie viel zieht denn eine solche Karte ohne Monitor und PhysX Benutzung aus dem Netzteil?
 
*schulterzuck* im idle wohl um die 15W und unter last maximal 75.. mehr gibt der PCIe-slot ja nicht her.


(..)

mfg
tobi
 
Zurück
Oben Unten