GPU Client PPD Vergleichsthread

gut zu wissen.. Hast du es mit dem Normalen Remotedesktop probiert (da ist es klar dass nichts mehr geht) oder mit LogMeIn (das sollte weiterhin gehen, weil ein Mirrortreiber verwendet wird und der normale Grafiktreiber weiterlaeuft)
 
gut zu wissen.. Hast du es mit dem Normalen Remotedesktop probiert (da ist es klar dass nichts mehr geht) oder mit LogMeIn (das sollte weiterhin gehen, weil ein Mirrortreiber verwendet wird und der normale Grafiktreiber weiterlaeuft)

normaler Remotedesktop!
.
EDIT :
.

Bin nun mal ein wenig am benchen und takten bei meiner Karte.

Einer Erhöhung der Core Frequenz kann man sich wie es aussieht sparen, die GTX280 verfügt ja über ein Powermanagement und sobald ich den folding-Client starte taktet er den Core automatisch auf 100MHz runter.

Ich teste dann jetzt mal was es bringt die Shader und Memory Frequenz zu erhöhen.
 
Danke, indiana_74.:)

So wie es gerade aussieht gibt es wohl neue WU's mit der Bezeichnung "5200"!8)
Muss aber noch abwarten was die so bringen werden...
(werd dann später einen neuen Screenshot einstellen - wenn die Werte mal da sind:P)
 
Danke, indiana_74.:)

So wie es gerade aussieht gibt es wohl neue WU's mit der Bezeichnung "5200"!8)
Muss aber noch abwarten was die so bringen werden...
(werd dann später einen neuen Screenshot einstellen - wenn die Werte mal da sind:P)

Hab jetzt auch eine davon bekommen und durch, leider gibts bisher nirgends Infos zu dem Projekt also keinen Plan was die an Punkten bringt.

Projekt : 5200 (unbekannt)


-- GPU --

Minimale Frame-Dauer : 11s
Gemittelte Frame-Dauer : 11s
Aktuelle Frame-Dauer : 12s
L3F-Frame-Dauer : 12s
Effektive Frame-Dauer : 9s
 
Ich hab mein Problem behoben .... sowas blödes hatte ich ja lange nicht *kopfschüttel*

Ich hab mich per Remotedesktop auf der Kiste eingeklingt um zu sehen ob alles läuft und genau damit hab ich dafür gesorgt das nix mehr geht :(
Der Ferngewartete Rechner verwendet für die Remotesitzung einen anderen Grafiktreiber, der folding-Client sieht "Hey da ist ja gar keine GTX280 mehr drin!" und das unheil nimmt seinen Lauf.
Lässt sich natürlich per Remote auch nicht mehr beheben.

Heute früh einfach nur angemeldet, folding gestartet, läuft!
.
EDIT :
.



Nice to read you ;)

wie jetzt, per Remotedesktop (als Windows Terminal Session, RDP über Port 3389) wechselt das System auf einen anderen Grafiktreiber?
Ich dachte, dass passiert nur mit einer Fernsteuerun wie z.B. VNC (Treiber VNC Hook o.Ä.) oder Remote Admin.

Gut zu wissen. Dann kann ich mir den Aufwand sparen, ein paar Server mit Grakas zu versorgen, da ich auf die meisten Systeme sowieso nur via RDP draufkomme :/ .

EDIT: hast Du schonmal mit VNC o.Ä. probiert? Die bringen soweit ich weiß auch nen eigenen Treiber mit... würde mich mal interessieren, ob das Problem trotzdem vorhanden ist.
 
@ Usch65: Mit der Elitegroup muß doch noch mehr Takt raus zu quetschen sein,oder ist die schon am Ende?
 
ich test das nachher mal mit LogMeIn - da klapps auch Games per Remote zu starten also sollte das mit FAH auch lüppen.
 
@ Usch65: Mit der Elitegroup muß doch noch mehr Takt raus zu quetschen sein,oder ist die schon am Ende?
Hi,
da geht evtl schon was mehr noch, ich bin aber lieber auf der sicheren Seite weil ich jetzt vornehmlich spiele und da ist's nervend wenn ein Spiel mitten im Level evtl abschmiert - verstehst?!*buck*;D
Mit den Einstellungen läuft sie 100%, deshalb hab ich so ja auch das BIOS neu geflashed - das bisschen "mehr" jetzt ist nur mal eben für's Folding gewesen.;)
 
Naja,aber die ECS hat den S1 drauf und sollte somit sehr sehr kühl laufen. Da kann man schon noch was geben. 8)
 
update meinerseits: ich habe den treiber nochmal sauber deinstalliert und den neuen draufgeworfen (samt ausgetauschter inf, logisch).

geändert hat sich nix.

ach ja, ich hab aber nochmal die genau punktzahl bei FaHmon nachgeschaut: 3528 PPDs.

ich nutze das beta-build vom 10.06.08 - das sollte ja das richtige sein, oder?

nu ja, ich habe FaH jetzt einem kern zugewiesen, der dann zwar 100% last hat, dafür ist das ruckeln deutlich weniger.
 
Hmmm,irgendwas läuft da net rund bei dir. Bei mir sieht es zur Zeit so mit der CPU Auslastung aus.
 
Zuletzt bearbeitet:
6048ppd / Projekt 5002 / 9800GTX / 512MB / 760MHz Core / 1000MHz Ram / 1900MHz Shader / RaptorXP

Das stimmt so nicht. Ich habe eine Leadtek PX8800 GTS 512 MB die sehr gut zu Takten geht. Wird wohl auf dem Niveau einer 9800 GTX liegen, aber es ist trotzdem keine. :)

Nachtrag:

Projekt : 5003
Core : GPUv2 Gromacs
Frames : 100
Punkte : 479


-- Folding@GPU2 --

Minimale Frame-Dauer : 1mn 15s - 5518.08 ppd
Gemittelte Frame-Dauer : 1mn 15s - 5518.08 ppd
Aktuelle Frame-Dauer : 1mn 20s - 5173.20 ppd
L3F-Frame-Dauer : 1mn 17s - 5374.75 ppd
Effektive Frame-Dauer : 1mn 15s - 5518.08 ppd
 
Deinstalliere mal das Cuda-Toolkit und alles was damit zu tun hat auch.
Im neuen Treiber ist die Cuda Unterstützung bereits enthalten.

Das CUDA Toolkit hat nicht im Geringsten etwas mit dem Rechnen bei Folding@Home zu tun.
Man braucht weder das SDK noch das Toolkit, es sei denn man will eigenen CUDA-Code fabrizieren. Ich arbeite damit.

Der Treiber wird sozusagen zur Installationszeit für die entsprechende Hardware konfektioniert. Das hat den Vorteil, dass bspw. Folding@Home auf beliebig vielen Streamprozessoren läuft und das ganze nahezu optimal mit der Zunahme der Zahl der Streamprozessoren skaliert. Einer diese Streamprozessoren kann ja theoretisch 96 Threads gleichzeitig managen.

Durch das CUDA erreicht man eine optimale Hardwareabstraktion, eine radikale Änderung der Hardware ist jederzeit möglich. Nicht wie vor ein paar Jahren dieses gebastel über die Grafik-API OpenGL.
Wenn man nicht ganz dumme Programme mit CUDA schreibt, hängt die Geschwindigkeit wohl ganz ausschließlich von der Entwicklungsstufe und Qualität der Treiber ab und liegt damit ganz allein in den Händen NVIDIA's. Natürlich sollte man Erfahrung was die Thread-Programmierung betrifft, mitbringen. Wenn man hier was falsch macht, war natürlich alles für die Katz.

Was die Rechengeschindigkeit betrifft ist also der CUDA-Assembler im Treiber, und nicht die der Grafikteil des Treibers verantwortlich. Es kann also sein, das der beste Spieletreiber nicht der beste CUDA-Treiber ist. Wir nehmen jetzt mal der Einfachheit halber an, dass der neuste Treiber der Beste ist.

Wir haben als keinen direkten Einblick um welche Version es sich bei dem CUDA-Teil im Treiber handelt. Der 177.35 unterstützt CUDA 2.0 mehr wissen wir nicht. Vielleicht wäre es besser und transparenter, wenn das CUDA-Feature seperat installiert werden könnte. Vielleicht geht das ja auch nicht. Soviel wird wohl NVIDIA nicht verraten.

Wir brauchen also weder Libraries noch Laufzeitumgebungen. Der CUDA-Code compiliert durch Open64, welcher PTX-Files (Parallel Thread eXecution) erzeugt, liegt uns schon vor. Diese PTX-Files sind nicht GPU spezifisch und müssen erst durch den PTX to Target Translator angepasst werden. Das Teil befindet sich im Treiber, das ist der CUDA-Teil.
Zum Erzeugen des nötigen CPU-Codes wird der EDG-Preprozessor genutzt, der vor dem Open64 in Aktion tritt und den Code in die beiden Architekturen für CPU und GPU aufsplittet. Hier kann auch optimiert werden um beispielsweise die CPU-Last so gering wie möglich zu halten.

Jetzt erstma gute Nacht.
 
Zuletzt bearbeitet:
Das CUDA Toolkit hat nicht im Geringsten etwas mit dem Rechnen bei Folding@Home zu tun.
Man braucht weder das SDK noch das Toolkit, es sei denn man will eigenen CUDA-Code fabrizieren. Ich arbeite damit.

Der Treiber wird sozusagen zur Installationszeit für die entsprechende Hardware konfektioniert. Das hat den Vorteil, dass bspw. Folding@Home auf beliebig vielen Streamprozessoren läuft und das ganze nahezu optimal mit der Zunahme der Zahl der Streamprozessoren skaliert. Einer diese Streamprozessoren kann ja theoretisch 96 Threads gleichzeitig managen.

Durch das CUDA erreicht man eine optimale Hardwareabstraktion, eine radikale Änderung der Hardware ist jederzeit möglich. Nicht wie vor ein paar Jahren dieses gebastel über die Grafik-API OpenGL.
Wenn man nicht ganz dumme Programme mit CUDA schreibt, hängt die Geschwindigkeit wohl ganz ausschließlich von der Entwicklungsstufe und Qualität der Treiber ab und liegt damit ganz allein in den Händen NVIDIA's. Natürlich sollte man Erfahrung was die Thread-Programmierung betrifft, mitbringen. Wenn man hier was falsch macht, war natürlich alles für die Katz.

Was die Rechengeschindigkeit betrifft ist also der CUDA-Assembler im Treiber, und nicht die der Grafikteil des Treibers verantwortlich. Es kann also sein, das der beste Spieletreiber nicht der beste CUDA-Treiber ist. Wir nehmen jetzt mal der Einfachheit halber an, dass der neuste Treiber der Beste ist.

Wir haben als keinen direkten Einblick um welche Version es sich bei dem CUDA-Teil im Treiber handelt. Der 177.35 unterstützt CUDA 2.0 mehr wissen wir nicht. Vielleicht wäre es besser und transparenter, wenn das CUDA-Feature seperat installiert werden könnte. Vielleicht geht das ja auch nicht. Soviel wird wohl NVIDIA nicht verraten.

Wir brauchen also weder Libraries noch Laufzeitumgebungen. Der CUDA-Code compiliert durch Open64, welcher PTX-Files (Parallel Thread eXecution) erzeugt, liegt uns schon vor. Diese PTX-Files sind nicht GPU spezifisch und müssen erst durch den PTX to Target Translator angepasst werden. Das Teil befindet sich im Treiber, das ist der CUDA-Teil.
Zum Erzeugen des nötigen CPU-Codes wird der EDG-Preprozessor genutzt, der vor dem Open64 in Aktion tritt und den Code in die beiden Architekturen für CPU und GPU aufsplittet. Hier kann auch optimiert werden um beispielsweise die CPU-Last so gering wie möglich zu halten.

Jetzt erstma gute Nacht.

Ich danke dir für diese ausführliche Erklärung und bin mal so frei deinen Text in das Startposting zu übernehmen.
 
...
4980.00 ppd / Project 5002 / 8800 GT SC / 512 MB / 650 MHz Core / 950 MHz Ram / 1756 MHz Shader (Shader default ist 1625)

52° GPU Temp @ Wakü

Werd mal noch bissel mit der Taktung spielen

Gruß Klödhilf
Hi,
kannst du mir mal bitte sagen wie du deine 8800GT auf einen Shadertakt von 1756 gebracht hast?! Ich bekommen bei meiner nur einen von entweder 1728 oder als nächste Stufe einen von 1782 hin! Wenn du das mit RivaTuner oder so eingestellt hast solltest du deinen Realtakt mal noch mit z.B. Everest 4.50 überprüfen, denn wie gesagt ich bekommen keinen Takt von 1756 bei meiner GraKa zum laufen - bei dieser Einstellung läuft der Takt noch immer mit nur 1728MHz!*buck*
Und noch etwas zu deiner Temp. - da lieg ich ja gerade einmal im 1°C höher mit meinem AC S1.;D

EDIT:
Ach ja und mein Stromverbrauch steigt auch um ca. 60Watt. (Idle - alles runtergetaktet GPU:500/450/1000 - CPU: Vcore-default 390x6 ca. 103Watt auf OC-Werte mit dann ca. 162Watt schwankend)
 
Zuletzt bearbeitet:
Hi,
kannst du mir mal bitte sagen wie du deine 8800GT auf einen Shadertakt von 1756 gebracht hast?! Ich bekommen bei meiner nur einen von entweder 1728 oder als nächste Stufe einen von 1782 hin! Wenn du das mit RivaTuner oder so eingestellt hast solltest du deinen Realtakt mal noch mit z.B. Everest 4.50 überprüfen, denn wie gesagt ich bekommen keinen Takt von 1756 bei meiner GraKa zum laufen - bei dieser Einstellung läuft der Takt noch immer mit nur 1728MHz!*buck*
Und noch etwas zu deiner Temp. - da lieg ich ja gerade einmal im 1°C höher mit meinem AC S1.;D


HI usch65,

werds heute abend mal überprüfen, meld mich dann....
Habs im Riva Tuner eingestellt und mit GPU-Z überprüft.

EDIT:

Zur Kühlung, hab noch nen Q6600 g0 @3400 der will auch gekühlt werden und in meinem Dachgeschoß isses auch über 30°C warm.
Aber fürne Lukü, glaub kein schlechter Wert.

@All

wo habt ihr die Rabattcodes für Conrad gefunden? Spiel auch mit dem Gedanken mir noch ne 8800gt 256 MB zu holen! Der kleine Speicher dürfte ja keine Auswirkungen auf Folding@Home haben, oder?? ??????

Gruß Klödhilf
 
Zuletzt bearbeitet:
Hallo indiana_74,

ich fühle mich geehrt, aber kannst du bitte noch den Fehler korregieren.

Statt: Was die Rechengeschindigkeit betrifft ist also der CUDA-Assembler im Treiber, und nicht die der Grafikteil des Treibers verantwortlich.

So: Was die Rechenleistung betrifft ist also der CUDA-Teil im Treiber von besonders großer Bedeutung. Der Grafikteil ist davon unabhängig.

Abschliessend würde ich noch gern hinzufügen (also als letzten Absatz):

CUDA wird uns gewiss noch viele Jahre begleiten. Die Entwicklung dieser Technologie begann schon 2002. Ich prognostiziere eine Revolution im Distributed Computing Bereich bzw. eine Verlagerung der Rechenaufgaben auf die GPU. Es ist nur eine Frage der Zeit. Ausserdem wird demnächst auch FP64 also doppelte Genauigkeit unterstützt. Was wieder den Vorteil seitens des Cell, dieser unterstützt FP64 in der bereits eingesetzten Version im IBM Roadrunner, ausgleicht.

Stream bzw. FireStream heißt das Gegenstück von AMD und bieten ähnliche Funktionen.

Die theoretische Rechenleistung der neuen Grafikkarten von AMD/ATI ist ja der von NVIDIA ebenbürtig, aber der Preis ist deutlich besser. Nur hat NVIDIA den Vorteil das dem Unternehmen das Image der G80-Chipserie vorauseilt. Immerhin ist und war die G80/G92 die erfolgreichste aller Entwicklungen NVIDIA's aller Zeiten.

Entwickelt werden kann im Linux wie im Windows, nur das das Entwickeln selbst nicht so komfortabel ist, wie gewohnt. Man muss viele Daten analysieren, da ein debuggen wie wir es kennen, nicht funktioniert.
Es muss also mehr Tools geben die die Sachen erleichtert, so dass auch die Masse dafür Programme entwickeln kann. Früher gab es vielleicht 100 Mann auf der ganzen Welt die die Grafik-API aufgrund ihrer Programmierfähigkeiten als GPGPU nutzen konnten.

Mit CUDA und Stream ist dies nun deutlich einfacher.
Was das für Supercomputer bedeutet müsste jetzt jedem einleuchten.
Nehmen wir an der Roadrunner rechnet Folding@Home Workunits.
Die gleiche Rechenleistung könnte man auch durch knapp über 1000 Computer, welche mit einer GTX 280 ausgestattet sind, generieren. Wenn wir also unser Team hier konzentrieren können wir sicherlich 1/4 bis 1/2 Teraflop schaffen. Während der Roadrunner 2,3 Megawatt verschlingt, hätte man mit 1000 PC's nur ca 0,4 Megawatt an Strombedarf.
Das einzige was uns noch fehlt ist die doppelte Genauigkeit, dann sieht es sehr sehr schlecht aus für CPU's wie Cell, Itanium und Xeon in Supercomputern.
Leider sieht es so aus, als ob FP64 mit der Geforce 9-Serie nur den Profikarten, wie Tesla und Quadro, zur Verfügung steht. Dem Mainstream will man dieses Feature per Deaktivierung vorenthalten.

Eine G92 faltet 3 mal schneller als eine PS3.
Die tatsächliche Nutzleistung hängt stark von der Anwendung und dem Optimierungsaufwand ab. Da der PS3 ja ca. 200 GFLOPS bescheinigt werden, wird klar warum die schnellste G92 mit 624 GLOPS deutlich überlegen ist. Temperaturtechnisch habe ich nicht das Gefühl, dass mit voller Leistung gefaltet wird.
Aber das ist nicht das einzige Leistungskriterium, der Speicher der zur Verfügung steht, in Ausführungen zw. 512 und 1024 MB, ist schneller als der L1 Cache auf einer aktuellen CPU.

Das Projekt Folding@Home ist wie für die GPU's beider Hersteller zugeschnitten, also startet eure Clients. Und nicht vergessen, das Wichtigste ist der Treiber.
 
Zuletzt bearbeitet:
Habs im Riva Tuner eingestellt und mit GPU-Z überprüft.

Ich hab bei mir immer das Monitoring Tool vom Rivatuner mitlaufen lassen, da kann man sehr schön sehen wann die Frequenz tatsächlich umspringt.

Hab meine GTX280 jetzt auch noch ein bisschen gekitzelt, läuft nun so:

GPU = 602@684MHz
Ram = 1.107@1.296MHz
Shader = 1.296@1.404MHz 8)

Mehr geht leider nicht ohne das bei ATITool Artefakte auftauchen und die Core Frequenz geht anscheinend grundsätzlich nicht höher. Sobald ich noch höher gehe springt er im Monitortool auf 100MHz zurück *noahnung*

Reicht ja aber auch ;D
 
Hi,
kannst du mir mal bitte sagen wie du deine 8800GT auf einen Shadertakt von 1756 gebracht hast?! Ich bekommen bei meiner nur einen von entweder 1728 oder als nächste Stufe einen von 1782 hin! Wenn du das mit RivaTuner oder so eingestellt hast solltest du deinen Realtakt mal noch mit z.B. Everest 4.50 überprüfen, denn wie gesagt ich bekommen keinen Takt von 1756 bei meiner GraKa zum laufen - bei dieser Einstellung läuft der Takt noch immer mit nur 1728MHz!*buck*
Und noch etwas zu deiner Temp. - da lieg ich ja gerade einmal im 1°C höher mit meinem AC S1.;D

EDIT:
Ach ja und mein Stromverbrauch steigt auch um ca. 60Watt. (Idle - alles runtergetaktet GPU:500/450/1000 - CPU: Vcore-default 390x6 ca. 103Watt auf OC-Werte mit dann ca. 162Watt schwankend)

60 Watt, da vergleichst du aber Idle(Ref.) mit Load(OC)!
Vergleiche mal Idle/Load im Referenz Takt und Idle/Load OC-Takt, und poste das hier.

Durch eine Art C&Q für meinem G92 (nur Taktsenkung) erreiche ich nur maximal 10 Watt Einsparung im Idle.
 
Zuletzt bearbeitet:
Der kleine Speicher dürfte ja keine Auswirkungen auf Folding@Home haben, oder?? ??????

Gruß Klödhilf

Nein das Folding benötigt nur rund 40MB Speicher. (Wird wohl mit der Anzahl der Threads/genutzten Streamprozessoren zusammenhängen)

Wäre gut wenn Indy das mal auf dem G100 Chip testet (da der ja mehr Streamprozessoren hat). Auslesen kann man das z.B. mit Rivatuner
 
HI usch65,

werds heute abend mal überprüfen, meld mich dann....
Habs im Riva Tuner eingestellt und mit GPU-Z überprüft.

EDIT:

Zur Kühlung, hab noch nen Q6600 g0 @3400 der will auch gekühlt werden und in meinem Dachgeschoß isses auch über 30°C warm.
Aber fürne Lukü, glaub kein schlechter Wert.

Gruß Klödhilf
Na GPU-Z scheint immer genau das auszulesen was man über z.B. RivaTuner eingestellt hat - nur läuft die Karte teilweise nicht mit den angezeigten Taktraten.*buck*
Aber ich muss mich zu meinem oberen Post etwas korrigieren - genau bei 1756MHz Shadertakt liegt die Grenze wo er bei mir dann schon gleich auf die 1782 springt!;)
Bei 1755 läuft sie noch immer mit 1728MHz.
Wegen deiner Kühlung: Sicher ist ne WaKü bei höheren Zimmertemps besser - bin mal gespannt wie das dann mal bei mir wird.
Aber ich muss schon sagen, der S1 mit den Turbo-Modulen ist schon echt nicht schlecht.:)

Ich hab bei mir immer das Monitoring Tool vom Rivatuner mitlaufen lassen, da kann man sehr schön sehen wann die Frequenz tatsächlich umspringt.
...
Stimmt, hab ich jetzt auch einmal mit getestet - ist exakt gleich wie es mir auch Everest anzeigt!8)
 
Zurück
Oben Unten