Der GTX 260/75/80/85/95 Overclocking + SLI-Thread

Ich bin sicher das es dafür eine Lösung gibt, rivatuner ist ja wirklich extrem flexibel. Vielleicht must Du einfach mit den Lüfterprofil spielen. Andererseits habe ich auch absolut keine sli Erfahrung... Mal schauen was googel so dazu ausspuckt...

hmmm, vielleicht must Du eine Karte per Bios angleichen?

gr dolltoll
 
@ dolltoll

Jo werd ich machen, allerdings das mit dem Bios angleichen muß ich nochmal genau anschauen!
Hab nähmlich 2 unterschiedliche PCBs, ein nVidia Referenz Design (xxx) und ein eigenes von XFX (Black Edition).
Die haben ja auch unterschiedliche Temperatur Grenzen, evt. muß ich sie nur entsprechend anpassen und nicht synchron einstellen! ;)

Danke, für deine freundliche Unterstüzung!
 
Zuletzt bearbeitet:
Manchmal ist es wie Weihnachten:
Da recherchen im Netz ergaben, das die gtx275 keine digitalen SpaWa hat und somit keine Spannungsveränderung per Bios möglich sei hatte ich bis dato diese Option ausgeschlossen. Heute in einem anfall von Spieltrieb wollte ich es noch mal wissen...
Bios mit gpuZ ausgelesen, in den Nibitor 5.2 eingelesen und, unter anderem, die 3D-Spannung von default 1,18v auf 1,2v erhöht.
Das Ergebniss sieht folgendermaßen aus:
[img=http://www.abload.de/thumb/capture_22102009_18225yrdv.jpg]
Das ist absolut rockstabel und mit allen erdenklichen Mitteln getestet.

Also kann man theoretich mein Ergebniss in die OC-Liste einfügen: xfx gtx 275: 738/1548/1296

Karte wird auch 5°C heißer beim zoggen.
Jetzt brauche ich nur noch ein tool, welches mir ermöglicht die real anliegenden Spannungen auszulesen wird es aber wahrscheinlich nicht geben, da die Karte ja keinen Sensor hat (weil man ja auch die Spannungen per bios nicht ändern kann *suspect* )

gr dolltoll

edit:
Nachdem mich die höheren Temps, vorallem auch im idel, genervt haben, schaute ich mir das orginal bios noch mal genauer an und mir viel auf, das der Power 3D-Modus eimal mit 1,18v und einmal mit 1,15v angegeben wird. Also änderte ich das bios noch mal dahingehend, das ich an beiden stellen 1,18v angegeben habe. Das funktioniert OC-mäßig genauso gut nur, daß ich jetzt wieder niedriger Temps habe. Schon ein seltsames verhalten für eine Karte deren Spannungen man angeblich nicht verändern kann. Das was wirklich nicht zu funktionieren scheint ist, die Karte im Idel mit wenigher volt zu betreiben. Aber wenn man gute Karten hat kann man durchaus probieren den Power-3D-Modus mit 1,05v anstatt mit 1,15v zu betreiben. scheinbar bleibt dadurch noch die option für moderates OC-en und einen, pro Karte, um die 30W gesenktes Lastverbrauch.
Ich weiße an der Stelle einfach mal auf den Tread im HWLuxx hin, welcher sich mit GraKa-Bios beschäftigt:
http://www.hardwareluxx.de/community/showthread.php?t=634387
Das ist wirklich gut erklärt...
 
Zuletzt bearbeitet:
Ich habe meine 675er mal mit Autotune von Nvidia getestet.
688/1502/1245

Furmark

Nicht übel, meine ich. Hab noch nicht mehr probiert,
mir fehlt einfach die Zeit.... :[

Ach ja - 3DMurks sagt 17873 Punkte 7487/7582/5558

Einstellungen im BIOS hab ich keine vorgenommen, die
Karte wird allerdings etwas warm - so 92°C (Gehäuselüfter alle min.)
 
@ HulkHagen

Die Karte muß nicht warm werden, ich weiß jetzt zwar nicht wie sich deine 17xx gb ram verhalten aber min. 80°C sollten drinnen sein. Ließ Dir Post #293 aufmerksam durch da ist alles drinnen was Du brauchst!!!

Betreibe meine Karte jetzt mit 1,16v bei 732/1584/1296 ;D und nach 3 stunden spielen habe ich 78°C

gr dolltoll

edit:
weil ich gerade gesehen habe das im meinen alten Post zum thema Lüftersteuerung so seltsame Werte stehen hier mal meine aktuellen aus RivaTuner, Low Level System Settings, von oben nach unten: 38/100/45/40/110/0/110. Und noch ne kleine berichtigung: 1.Wert ist minimum rotation in %. Mit Wert 3 und 4, in abhängigkeit zu Wert 1 kann man bestimmen ab wieviel °C und wie agressiv der Lüfter aufdreht.
 
Zuletzt bearbeitet:
Ahhh - @stock - 81°C, werde jetzt mal übertakten und dann testen.
idle jetzt statt 60°C nur noch 57°C.
Mal sehen ob ich die 88er GT auch noch kühler bekomme.
Die ist im idle bei ca. 63°C...

THX!!!
.
EDIT :
.

WOW!!!!

Ist ja irre. Leider auch der Geräuschpegel. (ist aber nicht so tragisch...)
ABER - OC bei 82°C - Du hattest recht: 10°C kälter!

Score: 4206 o3Marks
Submitted by HulkHagen @ October 24 2009, 12:27 am

App Version: oZone3D.Net_FurMark_v1.7.0_Build_Jul 3 2009_at_09:19:42

Renderer: NVIDIA GeForce GTX 275
Number of Active GPUs: 1
Graphics Drivers: ForceWare 6.14.11.9107 9-27-2009
GPU Temperatures (start/end):56°C / 82°C

Bench Duration: 60 sec.
Resolution: 1920 x 1080
MSAA samples: 4
Window Mode: fullscreen

CPU: AMD Phenomtm II X4 940 Processor
CPU Speed: 3600 MHz
Operating System: Windows XP build 2600 Service Pack 3

8)

ach ja @ 700/ 1287/ 1552 ... ich teste weiter ;D
 
Scheint ein heißes Teil zu sein dein Kärtchen. Ohne OC habe ich @ stock 73°C. Allerdings ist auch mein Gehäuse gut durchlüftet und ich habe keine 2te Karte drinnen. Meine Karte bekommt von unten mit nem 120er @ 1000rpm direkt Frischluft angeschaufelt und von der seite bläst ein 2ter Lüfter Kühle Luft auf die Karte. Das Midgasrd mag ja die eine oder andere schwäche haben aber es ist super für Luftkühlung und dabei Leise und Kühl...
.
EDIT :
.

Du kannst mit den Werten noch rumspielen mein GraKaLüfter hat so 75% bei 78°C. Wichtig ist, das er relativ früh anfängt zu kühlen, weil wenn die Karte erstmal heiß ist bleibt sie auch heiß...

Apropo OCed habe ich bei Furmark satte 5400pkt und ohne OC hbe ich 4700pkt, da ist Dein Ergebniss relativ Mau dagegen, sicher das alles stimmt? Was hat Deine Karte nochmal für Standartwerte, bei mir sind es 630/1404/1136

Edit 2

Im Idel habe ich bei 38% Lüfterratio 44°C, ich will damit nicht posen aber ich finde es komisch das deine Karte so heiß ist, wird wohl an der 8800 liegen die mitheizt *noahnung*
 
Zuletzt bearbeitet:
Score: 4237 o3Marks
Submitted by HulkHagen @ October 24 2009, 1:16 am

App Version: oZone3D.Net_FurMark_v1.7.0_Build_Jul 3 2009_at_09:19:42

Renderer: NVIDIA GeForce GTX 275
Number of Active GPUs: 1
Graphics Drivers: ForceWare 6.14.11.9107 9-27-2009
GPU Temperatures (start/end):62°C / 88°C

Bench Duration: 60 sec.
Resolution: 1920 x 1080
MSAA samples: 4
Window Mode: fullscreen

CPU: AMD Phenomtm II X4 940 Processor
CPU Speed: 3600 MHz
Operating System: Windows XP build 2600 Service Pack 3

705/ 1269/ 1563

Zwei/ drei kleine Pixelfehler bei Furmark....
Höher geht wohl nicht....

Meine Faneinstellungen dabei: 40/100/39/40/110/0/110


...übrigens, mein Gehäuse ist auch prima durchlüftet... 8) ;D - aber heiß ist das Teil in jedem Fall. (Hatte die Lüfter auf min.)
.
EDIT :
.

5°C weniger bei voll aufgedrehten Gehäuselüftern.
Mehr als 700 für die GPU geht nicht. Aber beim Speicher kann ich noch....

Nun gut - das sollte erst mal reichen 8)

Danke noch mal!!!
 
Um zu überprüfen welche takteinstellungen wirklich anliegen mußt Du mit RivaTuner auslesen Also: im Main Reiter das obere scroll down und dann das symbol ganz rechts. Ist wohl das einzige tool welches dir die korrekten Daten anzeigt (auch gpuZ erzählt mist). Wenn sich deine Karte so verhält wie meine dürften deine 1563mhz shader zBsp in wirklichkeit 1584mhz sein. Das von Nvidia angewande Verhältnis core zu shader ist:
core x 2,156xxxx = Shader

nur so zur info muss man sich aber nicht zwingend dran halten.

gr dolltoll

edit:
Da mein moni nur 1680X1050 darstellen kann habe ich mal das genommen (habe jetzt endlich kapiert warum Deine Werte so "niedrig" sind. Ergebniss ist 5148 kannst ja zum vergleich auch mal mit 1680x1050 nehmen. aber ich bin sicher das man bei deiner Karte noch ein wenig feintuning machen kann...
 
Zuletzt bearbeitet:
Core clock domain 0 : 702.000MHz
Core clock domain 1 : 1548.000MHz
Memory clock : 1269.000MHz

Ausgelesen mit RIVA - Graphics subsystem diagnostic report.
Pulldown - Symbol in der Mitte (das mit dem blauen Monitor)

Die Einstellungen sind bis jetzt stabil, habe 3DMurks mal laufen lassen:
18074 Punkte!!!
Habe also die 18k geknackt - mit einer Single GPU.
Mit meinen beiden 8800GT´s SLI war ich auch einmal ganz knapp über 18k....

Bildfehler habe ich bis jetzt keine feststellen können.
Werde morgen mal ein paar Games testen.

N8 erst mal.... und Danke!
 
Zuletzt bearbeitet:
wäre ja schade das brachiale potentia der karte brach liegen zu lassen....

N8

edit: ist ja schon spät da macht man fehler ne, meinte wegen dem RivaTuner Monitor das symbol ganz rechts und nicht ganz links
 
Zuletzt bearbeitet:
So, habe leider länger nicht mehr rein geschaut, da ich zur Zeit schrecklich viel tun habe. Werde die Liste so schnell wie möglich aktualisieren!:)

@dolltoll: Danke fuer die interessanten Informationen!

Ich hatte auch immer gedacht, dass man beim GT200b die Spannungen nicht modifizieren kann- auch nicht ueber's BIOS...

MfG,
sockel tw2+
 
Zuletzt bearbeitet:
Lieber sockel tw2+!
Danke für Deine Mühe, aber 3 Dinge mußt du bei mir Richtigstellen:
1. XFX GTX275
2. 738mhz und nicht 732mhz Corespeed (ich will ja nicht kleinlich sein aber das war aufwendig erkämpft :)
3. 1,18v

Der Beweis:
[img=http://www.abload.de/thumb/capture_24102009_15212p683.jpg]

Wenn Dich das mit den Spannungsveränderungen über Bios interessiert, ich Teile meine Erfahrungen gerne, den ist nicht ganz so einfach.... oder halt den entsprechenden tread bei HWLuxx aufmerksam lesen, da habe ich meine Erfahrungen Live dokumentiert.

gr. dolltoll
 
Zuletzt bearbeitet:
Upps, sorry- schon gefixt!

Jo, Spannungsveränderungen ueber's BIOS sind schon sehr interessant, allerdings habe ich mir geschworen so etwas nicht mehr zu machen, solange ich keinen anständigen Ersatz fuer meine jetzige Karte habe! Eine GTX260 habe ich ja schon auf dem Gewissen... (fuer einen Unerfahrenen wie mich war es etwas zu viel, ein Grafikkarten-BIOS ueber den USB-Stick zu flashen- ein Neuaufspielen des originalen BIOS hätte ich wohl nicht bewältigt, schon vor allem da ich nirgends eine alte PCI- bzw. billige PCIE-Karte auftreiben konnte!:])

Trotzdem werde ich mir den Thread einmal ganz durchlesen, sobald ich wieder mehr Zeit habe!:)

Ansonsten habe ich mir in den Ferien "Batman Arkham Asylum" zugelegt und war einfach nur erstaunt, fuer mich ist es bis jetzt definitiv das Spiel des Jahres! Besonders die PhysX Effekte sind richtig lecker- und "fressen" auch demnach Leistung (Stichwort: "Scarecrow")!;D

Ich werde mal den Spiel-internen Benchmark laufen lassen- und die Ergebnisse hier posten. Vielleicht ist dieser auch in der Demo enthalten, welche ich jedem ans Herz lege, der das Spiel noch nicht gespielt hat!

MfG,
sockel tw2+
 
So, habe jetzt einmal den integrierten Benchmark durchlaufen lassen:

Minimal FPS: 28
Average FPS: 50
Maximal FPS: 60

Dabei ist allerdings anzumerken, dass die verwendete Physik im Vergleich zu gewissen Szenen etwas spärlich ist. Manchmal wird die Karte durchaus mehr beansprucht. Etwas negativ ist mir dabei aufgefallen, dass das Spiel trotz hohen FPS-Raten manchmal ruckelt, etwa wie in Mirrors Edge, Far Cry2 oder Fallout3. Aber wirklich störend ist es nicht (ob sich so Mikroruckler anfuehlen?). Ansonsten war alles im Spiel und Treiber auf's Maximale eingestellt (AF, Texturqualität usw.)- wobei ich nur 2xMSAA bei einer Auflösung von 1440x900 verwendet habe.

@ Windhund:

Ich ueberlege gerade, ob man PhysX auch in der Demo auf's höchste einstellen- und mit der Grafikkarte berechnen kann. Beim Spiel geht das nämlich erst mit dem ersten Patch!*noahnung*

MfG,
sockel tw2+
 
@ sockel tw2+

Deine Werte schaun doch ganz gut aus!
Leider ist bei der Demo kein Ingame Benchmark dabei...lol
Kommt evt. später noch von mir ein kleine Messung, Patch 1.1 ist schon gezogen! ;)
 
@ Windhund:

Jo, wenn's nicht ab und zu selbst bei hohen FPS-Werten ruckeln wuerde, wäre ich mehr als zufrieden!:)

Aber bei diesem Spiel kann ich das Ruckeln verstehen- sind doch die PhysX Effekte viel aufwendiger als bei Mirror's Edge, wo's ebenfalls gerne mal ruckelt. Nee, nee, gerade bei Batman's Albträumen sind die Effekte schon faszinierend- und um das abzuleugnen, muss man schon ein ziemlich verbissener ATI-Fanboy sein...;)

Bei 4xMSAA fängt die Grafikkarte aber schon zu keuchen an (Verzögerungen und Instabilitäten), selbst wenn die FPS ueber 30 liegen. Dazu muss ich aber anmerken, dass ich auch nur den 185er installiert habe- es wird ja ein aktuellerer Treiber empfohlen.

Trotzdem kann ich beruhigt feststellen, dass meine GTX260 noch fuer alles ausreicht. Somit macht's mir auch nichts aus, wenn der Fermi noch ein bisschen länger auf sich warten lässt...


Ansonsten, hast du vor dir das Spiel zu besorgen (weil du den ersten Patch gezogen hast? Wie gesagt, ich kann es eigentlich nur empfehlen, das Spiel hat mich mit seinen Innovationen und der guten technischen Umsetzung wirklich positiv ueberrascht und bewiesen, dass es nicht immer ein Shooter a lá COD sein muss!*great*

MfG,
sockel tw2+
 
Hi Sockel tw2+,

Ja das Spiel habe ich mir bereits "gleaden" dummer weiße habe ich noch keine bestätigungs Email (aktivierungs Code) bekommen.
Im schlimmsten Fall dann eben erst nächste Woche... *buck*

Hab bei der Demo mal FRAPS nebenher laufen lassen mit der Overlay Anzeige.
Die war im SLI Modus und mit aktiviereten PhysX immer bei ~60FPS nur bei vielen aktionen ging sie mal kurz auf ~32FPS runter. (8xAA)
Aber wie geschrieben hast, ist in der Demo die PhysX ja nicht auf "high", oder?

MfG
 
Hmm, ich kann dir das leider nicht genau sagen, da ich die Demo noch nicht gespielt habe. Wenn die Physik auf "high" ist, sollte eine Menge interaktiver Nebel vorhanden sein, verformbare Textilien (Fahnen usw.), interaktive Blätter, Funken die an Wänden bzw. Fussböden "abrallen", zerbrechliche Fliessen (an gewissen Stellen)- und wahrscheinlich werden sich die Teile von explodierenden Wänden auch anders verhalten. Sollte man die Physik in der Demo auf "high" einstellen können- wird diese auf jeden Fall von der CPU berechnet (da GPU-PhysX erst seit Patch), sodass die FPS dann in den Keller gehen wuerden/muessten...

Ansonsten habe ich den Eindruck, dass die FPS ab 60 FPS begrenzt werden (so ähnlich wie bei V-Sync). Ich bin mir auf jeden Fall sicher, dass du mit deinem kraftvollen SLI-Gespann PhysX "high" und 8xAA locker bewältigen wirst!

MfG,
sockel tw2+
 
Hallo "Partnerschafts-Thread" ;)

hat eigentlich wer schon die MARS- Karten, die ich mal vorgestellt hatte?
Ist ja inzwischen schon ne Weile her, sodaß die verfügbar sein müssten...;D das waren doch vielversprechende Teile! (wenn auch teuer)
 
Hi Micha!

Ich denke mal sowas findest Du eher bei den Freaks im HWLuxx, ich für meinen Teil kann nur sagen, ne Karte die so teuer ist wie ein ganzer Rechner liegt ein wenig ausserhalb meiner Möglichkeiten. *buck*

Meine Aufrüst-Pläne gehen eher in Richtung 2x5850 a 2gb ram, nen schönen 24er FullHD, nen potenteren Towerkühler noch mal 2x2gb Ram und nen Sett wirklich leiser und leistungsstarker Lüfter... Das kostet dann auch so viel wie ne Mars (na ja nicht ganz so schlimm die Mars)...

Hoffentlich nimmt mir das hier im Tread keiner übel wenn ich offen zugebe nen Roter werden zu wollen :-X

gr dolltoll
 
also ich bin ja auch ein GeForce Fan, zugegeben, why not - und habe dennoch derzeit ATIs drin...
denke und hoffe mal, nicht ganz unbegründet, das wir hier so "erwachsen" sind, das wir eben uns nicht neiden, bekriegen oder sonst n spätpuppertären Kindergartenzirkus aufkommen lassen...
Nicht um sonst sind unsere Threads ja "Partnerschafts-Threads" geworden.
Beide Schmieden haben durchaus ihr Potenzial!

Wie auch immer, meine nächsten sollen die übernächste Generation werden: Wassergekühlt, und zwar gleich vom Werk aus - alles andere ist nichts ganzes und nichts halbes - sei es Nvidia oder ATI ... und gleich, wie du auch schreibst mit jew. mind. 2GB Grafikram -
Von daher hatte ich ja auch nach der MARS gefragt, weil die doch auch schon wassergekühlt war oder?
 
Zurück
Oben Unten