8800GT OC SLI - kleiner Einbau und Praxistest

HulkHagen

Grand Admiral Special
Mitglied seit
17.12.2007
Beiträge
2.325
Renomée
116
Standort
zu Hause
  • Spinhenge ESL
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
Vor rund einem Jahr geisterte ein Name durch die Medien: 8800GT.
"Schnellste Graka fürs Geld, auf Niveau einer GTX oder Ultra..." war alsbald der Tenor.
Eines war klar - die muß es sein! Und nicht irgendeine sondern eine "Werks OC" sollte es sein. Meine Wahl fiel damals auf die MSI NX8800GT OC. Der Krampf das Teil zu bekommen... man man man!
Dann war sie aber endlich da, der Preis hielt sich noch in dem von mir gesteckten Rahmen (na, ja - fast) und sie übertraf meine Erwartungen. Im Hinblick auf künftige Entwicklungen gönnte ich mir auch gleich ein SLI-Board.... 8)
Mit der Spieleleistung war ich absolut zufrieden, auch die (von vielen bemängelte) Temperatur hielt sich in Grenzen, trotz Referenzdesign und -Lüfter.
Und dann ging mal wieder alles ganz schnell - die neue GTS, 9800GT, 260, 280 .... sollte ich schon wieder aufrüsten ??? von den tollen ATI´s mal ganz zu schweigen.
Also schnell fix mal umgeschaut - die Preise waren ja am purzeln, kam recht schnell die Ernüchterung. Weg, aus und vorbei - keine OC zu einem angemessenen Preis mehr zu bekommen! Selbst hier im Forum - Fehlanzeige. Nun gut - ich kann warten (dachte ich) aber so langsam überkam mich das Gefühl - "Das wird nix!" Und dann stolperte ich durch Zufall über die technischen Daten der MSI NX8800GT Zilent. Es sind die selben wie bei meiner "normalen" OC. Shadertakt, Core und Speicher - identisch. Sollte also passen.
Eine kurze Anfrage bei MSI bestätigte meinen "Verdacht" 8)
In der Bucht wurde ich dann letzte Woche fündig und für 90 Neuronen wechselte die Karte den Besitzer.
Am Wochenende war es dann so weit - die Karte war am Vormittag bei mir eingetrudelt, ich hatte ´ne Weile Ruhe weil der Rest der Familie unterwegs war. Also frisch ans Werk.
Da die Karten eine sehr unterschiedliche Baubreite besitzen, die MSI8800GT OC ist sehr schmal und beansprucht kaum mehr Breite als meine Sounkarte, die Zilent ist ob ihres mächtigen Kühlers mehr als doppelt so breit, entfernte ich erst mal einige Slotbleche.



Da die Zilent so breit baut mußte die also nach "oben", unten steckte unverrückbar die Soundkarte. Und da war schon das Problem.
Die Heatpipes des Kühlers ragten eine ganze Ecke über die Oberseite der Karte herraus. Nich weiter tragisch, wenn da nicht der Anschluß der SLI-Bidge wäre...
So denn, Kühler abgebaut Heatpipes abgeschliffen, GPU gesäubert und neue WLP drauf, Kühler wieder montiert - passt.



Der weitere Einbau ist eher unspektakulär, die MSI NX8800GT OC (schön schmal) rein gesteckt, SLI-Bridge drauf und gesichert, Enermax Kabeltasche raus geholt (sich gefreut über die sinnvolle Investition) Stromkabel dran und fertig!



Nach dem Einschalten erkannte Nvidiatreiber (XP-Pro) auch gleich den SLI-Verbund. Schade nur, dass man Multimonitoring nicht gleichzeitig mit SLI nutzen kann - Umschalten und Neustart ist Pflicht, zumindest wenn man SLI nutzen will.
Schaltet man von SLI auf Multimonitor zurück, kann man auf den Neustart verzichten.

Aber HALT! Natürlich sollte auch gleich noch der Treiber aktualisiert werden, keine schlechte Idee wie sich zeigte. Der neue 177.92beta hat nämlich verbesserte SLI-Funktionalität. Nachdem das ordnungsgemäß (mit Deinstallieren des Alten) abgeschlossen war, konnte es endlich ans Testen gehen.
Zuerst 3DMark 06 und eine Ernüchterung 12400 Punkte, gerade mal 1000 mehr als vorher... noch nicht mal 10% .... ?
Da ich aber nicht besonders viel auf diese Benchmarks gebe, sollte der Praxistest zeigen was nun wirklich angesagt ist.
Was eignet sich da besser als einige aktuelle Spiele? Besonders Crysis interresierte mich. Meine Benchs vom Single GPU hatte ich fein säuberlich aufgeschrieben, nun auf - der Multi-GPU-Test wirds zeigen.
Meine aktuellen Einstellungen: 1280 x 1024, alles high, Shader medium, 4xAAF, Leichenfix und schöne Einschußlöcher, mehr Blut und volles Ragdoll.
Die Werte nach 3 Loops (Single GPU) : avg: 35, min: 14, max: 57 FPS - im Spiel aber effektiv nie unter 25 FPS, nur auf dem Träger hakelte es etwas....
Die Werte nach 3 Loops (Multi GPU) : avg: 46, min: 18, max: 68 FPS - im Spiel kaum unter 35 FPS, flüssig auf dem Träger!!!
Das macht ein Plus von 20 bis 30%! Na bitte!

Auch andere Spiele profitieren spürbar vom SLI. UT3 zum Beispiel, boah was schnell, sogar Pysix läuft spielbar, ANNO 1701 - perfekt, CoD4, Bioshock, Frontlines, Oblivion (Hammer!) und CoH alles bestens.
Leider habe ich da keine genauen Frameraten (Fraps noch nicht ausprobiert) aber eine spür- und sichtbare Leistungssteigerung ist erfolgt.

..ach ja, die Microruckler....
...werden, meiner Meinung nach völlig überbewertet. Ich konnte bis heute jedenfalls noch nichts sehen. Über 30 FPS sollen die ja eh nicht ins Gewicht fallen, ich hab auch noch nix bemerkt *noahnung*.

Mein restliches System seht Ihr links.
Wenn es die Zeit erlaubt, werde ich mal einen Testlauf mit CPU und GPU OC starten, da fehlt mir aber noch mein neuer Kühler für die CPU...
 
Schön geschrieben, nett zu lesen. :)
Allerdings finde ich es nach wie vor unglaublich, wie ineffizient SLI arbeitet. Ich meine, dass sich eine zweite Grafikkarte in nur ca. 30% mehr FPS bemerkbar macht, ist doch irgendwie harter Tobak. Vor allem in Crysis, welches doch so "Nvidiaphil" programmiert ist und auch nicht allzusehr von der CPU abhängt.
Dann kommt auch noch der erhöhte Stromverbrauch und das Multimonitorproblem dazu. Also, wie gesagt, nett zu lesen, aber garantiert nie was für mich ;).
 
Zuletzt bearbeitet:
Danke!

Stimmt, es ist eigentlich nicht zu fassen. Hatte aber nichts anderes erwartet...
Schade, ich gebe aber die Hoffnung nicht auf, dass das eine oder andere Spiel in Zukunft noch mehr von MultiGPU profitiert.
Wahrscheinlich geht das ähnlich schleppend wie MultiCPU-Optimierung.
Bestes Beispiel ist der neue 177.92 - da sind schon Leistungssteigerungen drin.
Wenn dann noch die Entwickler mit einem entsprechenden Patch nachhelfen, gebe ich SLI noch eine Chance. ;)

Der Hauptgrund für mich war, es einfach mal auszuprobieren.
Der zweite Grund, nicht schon wieder für teuer Geld aufrüsten zu müssen, sondern für "kleines" Geld die Performance etwas zu verbessern.

Die Kernfrage "Lohnt es sich auf SLI zu setzten?" möchte ich mal so beantworten.
Sicherlich ist es möglich bestehende Systeme zu beschleunigen, vorrausgesetzt die Basis passt.
Bei neuen Systemen steht die gebotene Mehrleistung IMHO nicht im Verhältnis zu den Mehrkosten. Dann lieber in vernünftige Komponenten investieren, womöglich eine gute WaKü und OCen - das bringt evtl. mehr, spart Strom und funktioniert problemloser.
 
Aber sagen wir mal so: Hättest du deine 8800GT verkauft und das Geld in eine Radeon 4870 investiert, wäre der Leistungsgewinn wohl noch größer gewesen.
 
;D

Das stimmt schon.
Aber wäre ich da mit 90 Neuronen hin gekommen?
Wie hoch ist denn die Mehrleistung effektiv? Mehr als 30% ? ;)
Und, ich kann´s ja immer noch machen *lol* ....

Wobei, ich bin immer noch kein Freund der ATI-Treiber, hatte da schon zu viele Probleme.
Meist nur Kleinigkeiten, die Summe hat mich dann aber immer mal auf die Palme gebracht. Die Omega-Treiber waren da schon um Längen besser.
Das liegt aber auch Jahre zurück, vermutlich hat sich da schon was getan..... ;)
 
Naja, wahrscheinlich wäre die Mehrleistung nicht unbedingt höher gewesen. Aber dafür bist du unabhängig von SLI optimierungen etc.
Aber mit den Treibern hast du wohl leider recht, denn als ich neulich zu ATI gewechselt bin, wurde ich auch von dem einen, oder anderen Problem geplagt: http://www.planet3dnow.de/vbulletin/showthread.php?t=347878 :-/
Zudem kommt nach einem kurzen Blackscreen des öfteren die Meldung von Vista "Der Anzeigetreiber wurde nach einem Problem wiederhergestellt etc blabla". Kann aber daran liegen, dass ich die Nvidia Leichen nicht mit dem Driver Cleaner entfernt habe.
 
Jupp, das kommt mir bekannt vor - da ist anscheinend doch noch nicht sehr viel geschehen.
Ich hatte einen Firmenrechner mit ´ner ATI ausgerüstet.
Damals gab es Probleme mit der Schriftdarstellung und beim Multimonitoring.
Als Grafiker die denkbar schlechteste Lösung... :]
Seit dem bin ich Nvidia treu. Matrox war auch super, da vermisse ich aber schmerzlich die 3D-Leistung. Die Nvidias in der Agentur laufen zuverlässig und stabil - gerade wegen der problemlosen Treiber!
 
Gestern Abend habe ich noch ein wenig rumprobiert.
Nix spektakuläres - "normale" Optimierung halt.
Habe aber ein wenig zu lange im Scharf-Esser-Thread verbracht... meine Speichertimings sind danach *lol*. Wenn ich die etwas "entschärfe" sollten noch ein paar Pünktchen drin sein.

So sind es momentan 12582 3DMarks.

Die CPU läuft mit 3,3GHz, die Grakas mit standard Core, Shader 1725, Speicher mit 1000. Ist also "Pipituning" ...

Falls ich es schaffe, werde ich heute Abend mal Hand anlegen und dem Schonwieder Lustig Investiert - Verbund mal zeigen was ein Hulk ist!
;D
 
Uh, zwei 8800er GTs. Da werden viele Punkte bei PS3GRID oder Folding@Home bei rumkommen ;)
musst nur SLI ausschalten ;D
 
...HA! Siehste, da war doch noch was... ;D
Spricht Folding den beide GraKas an, wenn SLI aus ist?
Ich habe noch nicht nachgelesen.... :-[

..werde mich da wohl mal schlau machen... müssen!
 
Schade, ich gebe aber die Hoffnung nicht auf, dass das eine oder andere Spiel in Zukunft noch mehr von MultiGPU profitiert.Wahrscheinlich geht das ähnlich schleppend wie MultiCPU-Optimierung.


Da würde ich nicht zuviel erwarten, die Unterstützung könnte zwar besser werden, aber irgendwann ist der Punkt erreicht, wo eine 8800Gt am Ende mit ihrer Leistung ist und dann bringt auch die zweite Karte nichts. Wenn eine einzelne 8800Gt mal auf unter 20Fps einbricht, sieht es schon schlecht aus, denn dann müsste die zweite Karte beinahe 100% Mehrleistung bringen (was unmöglich ist) um zwischen 30 und 40 Fps zu bleiben.

Darum würde ich mich über die jetzige Leistungsteigerung freuen, aber von zukünftigen Spielen nicht zuviel erwarten
 
also Folding müsste beide OHNE SLI ansprechen oder wenn du DC lieber mit BOINC betreibst empfehle ich PS3GRID ;)
 
Zurück
Oben Unten