Setiathome nun offiziel mit CUDA Support

und da regen sich die Leute über Milkyway auf ? - 14c für 60s - viel zu viel - bei MW gibs nur rd 1,3-2,0c für 60s mit ATI Radeon 4870x2


Nachtrag:
Link funktioniert
 
Das ist CPU time, nicht wall clock time, sprich tatsächlich vergangene Zeit ;-)

Sieht soweit ganz gut aus, nur heute Nacht sind da n paar richtig lahme WUs bei die mit dem unoptimierten Client gerechnet wurden, richtig?
 
Das spielt hier kaum eine Rolle,viel länger dauert die Berechnung nicht.Das ist hier nicht so wie bei GPUGrid.
 
?!? Wenn die CPU Last wie von soi angegeben 10% ist und eine WU in der Resultübersicht 60 Sekunden CPU Zeit zeigt, dann lief die doch effektiv 10x so lange, sprich 600 Sekunden, oder nicht? *kopfkratz
 
Eigentlich nicht, wenn sich der Client die GPU App zieht werden die SETI Multibeam Einheiten nur noch auf der GPU App berechnet. Ob er dann noch die Astropulse App zieht (um die CPU zu beschäftigen) vermag ich nicht zu sagen. Wenn das nicht der Fall ist gibts bei lunatics.kwsn.net ein Paket dass eben MB auf der GPU rechnet und AP auf der CPU. Da es derzeit quasi keine AP WUs gibt empfiehlt es sich evtl. Raistmers v8 Paket zu verwenden, das ist im Grunde ne aufgebohrte AK V8 app mit CUDA Fähigkeiten und funktioniert auch mit älteren nicht CUDA fähigen BOINC Clients. Diese App sieht gegenüber dem BOINC Client wie eine normale CPU App aus, wenn du eine CUDA fähige Karte und einen Quad hast zb, wird die App dann erst eine WU auf der GPU starten, dann die CPU Kerne befüllen. So laufen also die Multibeam WUs parallel auf GPU und CPU... Die KArte bringt also quasi nen eigenen WU scheduler mit. Klappt aber nur mit einer GPU, die andere bleibt idle...

@soi

danke!
Siehe hier
 
Also 10 Minuten dauert auf keinen Fall die Berechnung.Ich werd mal ne WU stoppen.
 

Das wäre dann die von Raistmer G80 fähig gemachte GPU app, CPU usage auch 10%? So n Eintrag in stderr.txt mit der "wall clock time" wie bei GPUGRID wäre ganz nett, hmmm...

@ Sway
danke

Wenn jede Einheit wirklich nur ~60 Sekunden dauern würde hätteste mit der GTX260 allein 20k am Tag zusammen, das glaub ich so recht noch nicht...
 
Zuletzt bearbeitet:
Das wäre dann die von Raistmer G80 fähig gemachte GPU app, CPU usage auch 10%?
@ Sway
danke
CPU-Usage auf meinem Quad around 2-4%.
Mal bei 97 Ergebnissen hochgerechnet knappe 5K/24h.
Nicht viel im Vergleich zu GPUgrid, aber der Mensch freut sich. Womit ich Proleme hab, ist die hakelige Tastatur. Viele Eingaben werden verchluckt. Sch.....egal
 
Na das sind doch mal handfeste Werte :)

Bei meiner 9800GT sind die CPU-Zeit Werte ja die gleichen wie die vergangene Zeit. Kam glaube ich hochgerechnet auf 3700 Credits am Tag, das ist nicht viel im Vergleich mit GPUGrid, gerade wenn man eben bedenkt dass ein Kern bei flöten geht...
 
Hochrechnen kann man hier nicht,da die WU's unterschiedlich schnell abgearbeitet werden.Ich werde es jetzt mal bis ende der Woche laufen lassen und mal sehen was dabei rauskommt.
 
Fortsetzung aus dem GPUGRID Thread...

Ich schalte CUDA Projekte wenn ich spiele einfach ab, ist aber mehr ne Vorsichtsmaßnahme, wäre zu schade da so ne 12h Einheit bei 95% zu verlieren...

Die 8200er Chipsatzgrafik sollte mit SETI noch ganz gut zurecht kommen, wie ja auch heimbuec schon zeigt. Wobei die angegeben Zeiten wieder CPU Zeit sind, nicht tatsächlich vergangene Zeit... Mit den angegebenen Werten würde die 8200er 10k am Tag machen, 1k ist wohl realistischer, wenn überhaupt...

8 Shaderprozessoren mit 900MHz stecken drin. Interessant wäre wieviel GLOPS der 6.6.4er Client da meldet beim Start...

http://de.wikipedia.org/wiki/Nvidia_nForce_700#Northbridge
 
Zuletzt bearbeitet:
Okay, ich habe den Haken bei Use Cuda.... gesetzt, was soll ich bei "Run only the selected applications" einstellen ?
 
Hmm, ich hab die Optionen nu grad das erste Mal gesehen *buck* Hmm, ja wenn du nur CUDA Multibeam rechnen willst wäre das wohl das beste (run only selected - yes/Häkchen). Ansonsten kriegste evtl. noch Astropulse Einheiten und die dauern ohne optimierte Anwendung ewig...
 
Hmm, ich hab die Optionen nu grad das erste Mal gesehen *buck* Hmm, ja wenn du nur CUDA Multibeam rechnen willst wäre das wohl das beste (run only selected - yes/Häkchen). Ansonsten kriegste evtl. noch Astropulse Einheiten und die dauern ohne optimierte Anwendung ewig...

Nur die GPU soll Seti rechnen der rest halt was anderes.....
 
Müsste so klappen... Garantieren kann ich nix, ich musste meine Kiste erst per app_info.xml zur CUDA app zwingen, von daher hab ich keine Erfahrung mit den Serversettings und wie das normal läuft :-/

Kannst ja wenn du n paar Einheiten durch hast mal die entspechenden Teile des Logs posten, von WU Start bis Ende gerechnet hat man ja denn ungefähr die tatsächlich vergangene Zeit...
 
Also die GTX260 meldet bei mir 117 GFlops und die 8800GT 65 GFlops,daher wollte ich die GT noch ein wenig anheben,aber mitn Rivatuner funzt es net.
 
Damit hat deine 8800GT mehr GFLOPS als meine 9800GT *suspect*
Evtl. mal die Übertaktung im Nvidia Treiber probiert, coolbits dingens? (gibts das überhaupt noch?)

Da nun vermehrt Einheiten mittels CUDA gerechnet werden, kommt es natürlich auch vor dass eine WU bei einem Quorum von 2, von 2 Grafikkarten gerechnet wird. Soweit so gut, nur claimt der CUDA Client wohl regelmäßig zu viel... So werden für die normalen 42c WUs 58c geclaimed und im Falle von 2 CUDA Rechnern auch mit 58c belohnt.

Bei mir ist das derzeit geschätzt jede 15. Einheit die so 16 Credits mehr bekommt...
 
Ich habe nur CPU Wu´s bekommen, nix für die Graka welchen Client brauche ich ? Habe 6.4.5 oder sowas drauf... Sonst noch nen Tipp wie ich das zum Laufen kriege ?
 
6.4.5 ist ok... Im Grunde genommen solltest du automatisch Einheiten für die GPU bekommen.

Was du machen könntest, wäre BOINC mit ner app_info.xml zwingen dass ausschließlich Multibeam Einheiten gerechnet werden und das ausschlielich von der GPU.

Als Grundlage könntest du dieses Paket nehmen und dann aus der app_info.xml den Astropulse Teil herauskürzen...
 
6.4.5 ist ok... Im Grunde genommen solltest du automatisch Einheiten für die GPU bekommen.

Was du machen könntest, wäre BOINC mit ner app_info.xml zwingen dass ausschließlich Multibeam Einheiten gerechnet werden und das ausschlielich von der GPU.

Als Grundlage könntest du dieses Paket nehmen und dann aus der app_info.xml den Astropulse Teil herauskürzen...


Boah, ich versteh da nur Bahnhof, kannst du mir deine XML nicht einfach schicken ?
 
Damit hat deine 8800GT mehr GFLOPS als meine 9800GT *suspect*
Evtl. mal die Übertaktung im Nvidia Treiber probiert, coolbits dingens? (gibts das überhaupt noch?)

Coolbits geht bei Vista nimmer,aber ich hab mal den Nhancer probiert,gefährliche Sache.:o Der hebt beide Karten auf den gleichen Takt an.Ich hab da mal jetzt nen Mittelweg aus GPU 700MHZ und Vram 1150 MHZ genommen,mal sehn wie lange die GT das mitmacht.*lol*
 
Zurück
Oben Unten