leadtek 7950GX2 für 180€ neu..kein fake...

Kann ich nur zustimmen, eine GF7 ist einfach nicht mehr zeitgemäß. Lieber ein paar € drauflegen und die 8800 GTS 320 kaufen. Ist ja auch schon ab 250€ zu haben.
 
naja 70 euro ist nicht gerade wenig.
Dafür gibts fast schon 2 GB ddr2 ram....

Dann lieber die 7950 GX2 ;)
 
naja 70 euro ist nicht gerade wenig.
Dafür gibts fast schon 2 GB ddr2 ram....

Dann lieber die 7950 GX2 ;)
Und dann ist das Geschrei hinterher groß, wenn die Texturen matschig sind oder flimmern, die Performance nicht stimmt weil ein Spiel (oder der Anwender) nicht mit SLI klar kommt oder das neue DX10 Spiel mit einer DX10 Karte dann doch besser aussieht und besser läuft.
Muss jeder selbst wissen, ob ihm das 70€ wert sind.
 
Bis das erste DX10 Spiel rauskommt was die Leistung wirklich braucht, verschacher ich die GX2 und hol mir dann eine G80...
Was doch 10x schlimmer ist als jedes noch so "schlimme" flimmern, ist das Abschalten des Vsyncs - welcome Tearing....
sobalds Gehalt da ist wird ne gebrauchte GX2 geholt - und ne 320 nur dann, falls ich die WIRKLICH günstig bekomme....
Dann hab ich am Ende des einen Jahres auch nochmal 15-20 Euro Strom gespart...
Ist doch echt ne Frechheit was die Grafikkarten im Idle saugen....

Die Zeiten dass ich Prozessoren für 1200 DM, Grafikkarten für 400 Euro und Monitore für 1200 Euro gekauft habe sind lange vorbei. Dann lieber nur noch Midrangekomponenten kaufen, dafür öfter tauschen, und das gesparte schön weiter in Aktien investiert ;-)
 
Zuletzt bearbeitet:
Bis das erste DX10 Spiel rauskommt was die Leistung wirklich braucht, verschacher ich die GX2 und hol mir dann eine G80...
Lohnt sich dann ja total, wenn im September Crysis in den Regalen steht :]
 
Dann kauf ich mir für 5 Euro ne Lupe - um dann die Unterschiede zu suchen in der Grafik.....
 
Wenn es überhaupt mit DX10 flüssig läuft.

davon darf man ja wohl ausgehen. bei lost planet funzt es ja auch.
apropos lost planet.. wie läuft das wohl auf einer GX2 unter DX9.. ?!


(..)

mfg
tobi
 
Das mit der achso guten Bildqualität bei den x1900ern zu G71 kann ich echt nicht teilen. Ich sehe da nämlich fast keinen Unterschied. Hatte heute mal zum Test eine x1900pro drinn und soviel besser war das "flimmern" bei Zäunen auch nicht.

Achja wenn Crysis im Herbst kommt, dann kann man sich nen Monat später einen G92 kaufen.

mfG Crimson
 
davon darf man ja wohl ausgehen. bei lost planet funzt es ja auch.
apropos lost planet.. wie läuft das wohl auf einer GX2 unter DX9.. ?!


(..)

mfg
tobi



Lost Palnat ist nicht Crysis.

WIe gross ist da überhaupt der Unterschied ?
 
Das mit der achso guten Bildqualität bei den x1900ern zu G71 kann ich echt nicht teilen. Ich sehe da nämlich fast keinen Unterschied. Hatte heute mal zum Test eine x1900pro drinn und soviel besser war das "flimmern" bei Zäunen auch nicht.

Achja wenn Crysis im Herbst kommt, dann kann man sich nen Monat später einen G92 kaufen.

mfG Crimson

zäune flimmern, weil es alphatest-texturen sind, die von MSAA nicht erfasst werden. wenn die beruhigt werden sollen, muss man adaptives (ATI) bzw. transparentes (NV) antialiasing zuschalten. idealerweise im supersampling-modus.

mit dem anisotropen filter haben zäune nichts zu tun.

Lost Palnat ist nicht Crysis.

WIe gross ist da überhaupt der Unterschied ?

welcher unterschied ? performance beim g80 DX9 vs. DX10 ?

LPXPHQ.jpg

LPVHQ9c.jpg




(..)

mfg
tobi
 
Zuletzt bearbeitet:
@ Crimson

Entgegen Deiner Aussage scheint die Kombination DUAL SATA2 mit ULI Chipsatz bei einigen wohl doch zu funktionieren.

(Hier solte eigentlich die Quelle stehen, die ich jedoch (noch nicht) posten darf, da ich erst 4 weitere Beiträge dafür verfassen muss. Die vorgeschlagenen Maßnahmen funtionieren nicht :)
oder ich bin einfach zu blöd dazu :P (Schau mal bei ocworkbench und such mal ein wenig))

Die Quelle ist jedoch schon etwas älter. Dennoch gibt es auch einige Systemsignaturen mit dieser Kombination.

Gruß
 
welcher unterschied ? performance beim g80 DX9 vs. DX10 ?




(..)

mfg
tobi



Ja die Performance und die grafische Qualität. Gibt es irgendwo Screenshots zum Vergleichen ?


@ Larry wie wäre es wenn du den link ohne http:// oder www. schreibst ?
 
Neuer Versuch:

ocworkbench.com/ocwb/ultimatebb.php?/topic/30/6775.html

Links zu Signaturen:

sysprofile.de/id14396
sysprofile.de/id20877

Ich werde den Test ebenfalls Morgen oder Mittwoch durchführen. Mal sehen ob das funktioniert.

Weiterhin kann das hier auch eine Lösung sein, auch wenn die Karte bekanntlich kein SLI benötigt:

planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1141152607

Gruß
 
Ja die Performance und die grafische Qualität. Gibt es irgendwo Screenshots zum Vergleichen ?

zum unterschiede suchen sind videos besser geeignet als standbilder, daher habe ich mir das knipsen verkniffen. es sieht aber sicher nicht schlechter aus, als unter DX9 und es läuft auch wenige frames schneller auf meiner möhre. sieht man ja auf den benchergebnissen^^ ca. 12% mehr average frames.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich werde den Test ebenfalls Morgen oder Mittwoch durchführen. Mal sehen ob das funktioniert.

Weiterhin kann das hier auch eine Lösung sein, auch wenn die Karte bekanntlich kein SLI benötigt:

Tu das, kannst ja hoffen das beide GPU's arbeiten. Was soll sich den ändern mit dem Treiber? Ich komm ja nicht ins Windows. Hab ihn zwar installiert aber ich hab jetzt keine Zeit um die GX2 (in antistatischer Folie) die hier neben mir liegt (grrr* an alle die keine bekommen haben) einzubauen.

mfG Crimson
 
zum unterschiede suchen sind videos besser geeignet als standbilder, daher habe ich mir das knipsen verkniffen. es sieht aber sicher nicht schlechter aus, als unter DX9 und es läuft auch wenige frames schneller auf meiner möhre. sieht man ja auf den benchergebnissen^^ ca. 12% mehr average frames.


(..)

mfg
tobi


Hm finde leider keine Videos.

Kannst nicht welche mit Fraps machen ?
 
Bei mir ist die Karte mit dem Dual SATA II von ASRock problemlos gelaufen. Also irgend etwas scheint nicht zu stimmen bei Euch, was u.U. nicht am Board liegt. Ich habe mir meine GX2 schon letztes Jahr nach Erscheinen geholt und mich auch erstmal vorher nach der Kompatiblität mit dem Board erkundigt. Da gabs aber schon den ein oder anderen, der diese Kombination erfolgreich laufen hatte und so konnte auch ich zuschlagen, mit genannten positivem Ergebniss. Ich hatte das Board dann lediglich gewechselt zum Abit KN8, weil ich mir ein klein wenig mehr Performance der CPU und des Speichers damit im Gegensatz zum Dual SATA II versprach (welche ich dann auch geringfügig bekam). Hatte also nichts mit der Grafikkarte zu tun.
 
Bei mir ist die Karte mit dem Dual SATA II von ASRock problemlos gelaufen. Also irgend etwas scheint nicht zu stimmen bei Euch, was u.U. nicht am Board liegt. Ich habe mir meine GX2 schon letztes Jahr nach Erscheinen geholt und mich auch erstmal vorher nach der Kompatiblität mit dem Board erkundigt. Da gabs aber schon den ein oder anderen, der diese Kombination erfolgreich laufen hatte und so konnte auch ich zuschlagen, mit genannten positivem Ergebniss. Ich hatte das Board dann lediglich gewechselt zum Abit KN8, weil ich mir ein klein wenig mehr Performance der CPU und des Speichers damit im Gegensatz zum Dual SATA II versprach (welche ich dann auch geringfügig bekam). Hatte also nichts mit der Grafikkarte zu tun.

Hast du diesen ollen Treiber installiert oder ging es auch so?
Weil als erstes hab ich ein BIOS-Update gemacht und dadurch war's auch nicht besser.

mfG Crimson
 
Hab mir jetz mal die für 199,- bei Alternate bestellt mit der Crucial SDCard und dem Inet Security.

Ich finde die Karte ideal für alle Aktuellen und kommenden Spiele dieses Jahr. Preis/Leistung - Top.

Nächstes Jahr kann man dann die neuen Chips rein setzten, wenn die Oberklasse die im September erscheint, erschwinglich wird, sprich um die 300 - 350 €

Ich frage mich wie diese Karte sich mit Crysis schlagen wird.
 
Zuletzt bearbeitet:
Was ist hier mit der Karte? Tuck? *noahnung*
 
Klar hab ich das auch PCIe gestellt bringt aber nichts.
 
Zurück
Oben Unten