Moo!-Wrapper

Die Update.bat hat das primäre Problem gelöst, trotzdem gehe ich jetzt bis morgen früh 10:00 Uhr raus.
 
Finde auch erstaunlich, dass hier nur cuda31 ankommt. Wo doch bei den verfügbaren Apps sowohl für Linux als auch für Windows cuda101 verfügbar ist.
Echt?
Also hier sehe ich nur OpenCL 101 und bei Linux noch CUDA60 und 70 - aber selbst das ist uralt.

Vor einem Jahr hatte ich ja genau das Problem, dass immer nur CUDA31 kam.
Vermutlich hat es geholfen, dass ich das im Moo-Forum bemängelt habe - und nun bekomm ich nur noch OpenCL101. ;)
 
Man muss nur schimpfen und dem Server alle 40 Sekunden auf den Sack gehen. Dann geht's. Hab inzwischen noch ca. ein Dutzend 31er auf Halde und ca. 150 cuda101 ;D
Mache mal über Nacht die Schotten dicht und bewundere morgen früh das Ergebnis.
 
Verdammich, hast Recht. Geh jetzt besser ins Bett und tausche morgen früh die Batterien an der Brille aus.

--- Update ---

Die NV openCL 101 sind mal deutlich schneller als die ollen cuda31.
cuda31: 1660S+970 im Team: ~11 Min
openCL101: 1660S alleine: ~9 Min
openCL101: GTX 970 alleine: ~25 Min
Powerlimit 1660S: 91%, 970: 83%
 
Eben mal Testanwendungen erlauben angeklickt. Die erste ocl101 ist bei der 660ti eingetrudelt. Mal sehn wie sie sich schlägt.

Edit: Die ocl wu ist schon bei 42min.:-[ Der will nen ganzen Kern haben. Bei Cuda keinen
 
Zuletzt bearbeitet:
<options>
<use_all_gpus>1</use_all_gpus>
<exclude_gpu>
<url>http://moowrap.net/</url>
<device_num>1</device_num>
</exclude_gpu>
</options>

Ich dachte dieser Eintrag in der cc_config.xml hilft mir weiter.
Er führte aber nur dazu, dass Moo sich GPU-WUs holt, aber nicht berechnet.
Irgend etwas fehlt noch.

Zur Auführung bereit (0.2 CPUs + 2 NVIDIA GPUs)
 
Ich wollte über die cc_config.xml verhindern, dass die WUs in Teamarbeit auf der 1660S und GTX 970 berechnet werden. Dazu habe ich bei <exclude_gpu> die 970 eingetragen. Das hat zu gleichem Ergebnis geführt. Moo! will wohl unbedingt bei CUDA alle verbauten GPUs nutzen. Du hast bei <device_num> nur eine eingetragen. Vielleicht hat das den gleichen Effekt wie bei mir. Versuch mal 0 und 1.

Noch was anderes: Man kann auf der Projektseite ja einstellen, welchen Client Core man verwenden will. Steht default auf "-1" (automatisch).

Man kann einen Benchmark laufen lassen, um die für sich schnellste Version herauszufinden.
Im Projektverzeichnis liegt die Datei dnetc521-win32-x86-opencl.exe. Für den Benchmark BOINC anhalten und in der Eingabeaufforderung dnetc521-win32-x86-opencl.exe -bench eingeben. Dann spuckt der Gerät aus, welcher Core am schnellsten ist.

dnetc v2.9112-521-GTR-16021318 for OpenCL on Win32 (WindowsNT 6.2).
Please provide the *entire* version descriptor when submitting bug reports.
The distributed.net bug report pages are at http://bugs.distributed.net/

[Jul 18 09:55:04 UTC] RC5-72: using core #0 (CL ANSI 1-pipe).
[Jul 18 09:55:06 UTC] RC5-72: Benchmark for core #0 (CL ANSI 1-pipe)
0.00:00:01.06 [4,404,729,336 keys/sec]
[Jul 18 09:55:06 UTC] RC5-72: using core #1 (CL 1-pipe).
[Jul 18 09:55:08 UTC] RC5-72: Benchmark for core #1 (CL 1-pipe)
0.00:00:00.73 [6,381,536,780 keys/sec]
[Jul 18 09:55:08 UTC] RC5-72: using core #2 (CL 2-pipe).
[Jul 18 09:55:10 UTC] RC5-72: Benchmark for core #2 (CL 2-pipe)
0.00:00:00.75 [6,277,486,581 keys/sec]
[Jul 18 09:55:10 UTC] RC5-72: using core #3 (CL 4-pipe).
[Jul 18 09:55:11 UTC] RC5-72: Benchmark for core #3 (CL 4-pipe)
0.00:00:00.75 [6,288,318,545 keys/sec]
[Jul 18 09:55:11 UTC] RC5-72 benchmark summary :
Default core : #-1 (undefined) 0 keys/sec
Fastest core : #1 (CL 1-pipe) 6,381,536,780 keys/sec
[Jul 18 09:55:11 UTC] Compare and share your rates in the speeds database at
http://www.distributed.net/speed/
(benchmark rates are for a single processor core)
 
Darüber habe ich mich soeben auch schon gewundert. Wenn mehr als eine GPU vorhenden ist, will die Wuze gleich alle nutzen, was aber Quatsch ist.
Wenn sie z.B. eine GTX750Ti hat und nutzt, dazu auch noch 2x GT1030, ist das Resultat genauso schnell fertig, als wenn nur die GTX genutzt wird.
Ich werde also auch entweder beide ziehen müssen oder in der cc_config rumfummeln müssen. Das gefällt mir überhaupt nicht.
 
In dem Rechner stecken 2x RTX 2080 Ti.
Die Untere hat die laufende Nummer 0, und die Obere die laufende Nummer 1.
Ich möchte nicht mit der CPU rechnen.
Ich möchte nicht mit der GPU 1 rechnen.
 
Ich bin jetzt zwar nur noch mit dem Xeon/GTX750Ti dabei, aber es hat sich irgendwas verändert. Die App will mehr CPU-Unterstützung, es wird (bei mir) jetzt Cuda101 verwendet und die Laufzeiten sind deutlich angestiegen. Gibts denn auch mehr Credits?

--- Update ---

Ja, Laufzeiten um 1h und Credits immer über 6k. Das sind dann mal so ca. 140k/d ... theoretisch.
Bei meinen Zeiten, wo die PCs mal crunchen dürfen, dann eher was zwischen 40 und 50k. (Kleinvieh eben)
 
In dem Rechner stecken 2x RTX 2080 Ti.
Die Untere hat die laufende Nummer 0, und die Obere die laufende Nummer 1.
Ich möchte nicht mit der CPU rechnen.
Ich möchte nicht mit der GPU 1 rechnen.

In dem Projektverzeichnis ist bei mir eine job-cuda31-1.00.xml
Darin steht
<job_desc>
<task>
<application>dnetc518-win32-x86-cuda31.exe</application>
<checkpoint_filename>chkpoint</checkpoint_filename>
<command_line>-ini dnetc.ini -runoffline -multiok=1</command_line>
</task>
</job_desc>

Vielleicht kann man es mit dem Wert "0" auf eine GPU begrenzen? *noahnung*
Hab hier keine cuda WUs mehr zum testen.
 
Gerade mal aus Jux den A12-9800 eine WU rechnen lassen: 16:33 Min. Gar nicht schlecht eigentlich. Die 280X hat sich mit ~4:50 Min als meine schnellste GraKa offenbart. Die 7970 braucht komischerweise 18:30 Min.
 
Gerade mal aus Jux den A12-9800 eine WU rechnen lassen: 16:33 Min. Gar nicht schlecht eigentlich. Die 280X hat sich mit ~4:50 Min als meine schnellste GraKa offenbart. Die 7970 braucht komischerweise 18:30 Min.

Die Zeit ist nicht aussagekräftig. Wie viele Cr. gibt es für welche Zeit?

Meine R3 vom Athlon 5350 braucht auch nur 21 min. Bringt aber nur 256 cr.
 
Code:
[B]GPU      Zeit (Sek)	Cr	Cr/Std[/B]
A12	 993	       1536	5569
7970	 1109          6584	21373
280X	 291	       1536	19002
5700	 570           6584	41583
1660S    581	       6584	40796

Wenn man das so betrachtet, doch doch irgendwie ernüchternd.
 
Hab nach dem Sprint etwas rumprobiert und vielleicht fürs nächste Mal einen Tipp, um bei Nvidia OpenCL zu erzwingen (Windows). Vielleicht kann das noch jemand gegentesten.

Download der App: https://moowrap.net/download/dnetc_wrapper_1.5_windows_intelx86__opencl_nvidia_101.exe

BM ausschalten.
Im Projektverzeichnis folgende Dateien sichern (falls sie verschwinden):
job-win32-opencl-521.1.xml
dnetc-gpu-1.5.ini
dnetc521-win32-x86-opencl.exe

app_info.xml erstellen
Code:
<app_info>
<app>
<name>dnetc</name>
</app>
<file_info>
<name>dnetc_wrapper_1.5_windows_intelx86__opencl_nvidia_101.exe</name>
<executable/>
</file_info>
<file_info>
<name>dnetc521-win32-x86-opencl.exe</name>
<executable/>
</file_info>
<file_info>
<name>dnetc-gpu-1.5.ini</name>
</file_info>
<file_info>
<name>job-win32-opencl-521.1.xml</name>
</file_info>
<app_version>
<app_name>dnetc</app_name>
<version_num>150</version_num>
<platform>windows_intelx86</platform>
<avg_ncpus>0.5</avg_ncpus>
<api_version>7.15.00</api_version>
<file_ref>
<file_name>dnetc_wrapper_1.5_windows_intelx86__opencl_nvidia_101.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>dnetc521-win32-x86-opencl.exe</file_name>
<copy_file/>
</file_ref>
<file_ref>
<file_name>dnetc-gpu-1.5.ini</file_name>
<open_name>dnetc.ini</open_name>
<copy_file/>
</file_ref>
<file_ref>
<file_name>job-win32-opencl-521.1.xml</file_name>
<open_name>job.xml</open_name>
<copy_file/>
</file_ref>
<coproc>
<type>NVIDIA</type>
<count>1</count>
</coproc>
<dont_throttle/>
<is_wrapper/>
</app_version>
</app_info>

Achtung: Im Testrechner habe ich eine 7970 und eine 1660S. Egal was ich mache, die WU wird auf der 7970 gerechnet. Und das mit der Nvidia-App! Laufzeit ca. 290 Sek, dafür nur 1536 Cr.
 
Zuletzt bearbeitet:
Hm, wenn man die AMD-App herunterlädt, wird nvidia-openCL erzwungen?

Ich müsste jetzt eigentlich nur den Status Quo einfrieren. Da ich zuletzt nur noch openCL erhalten hatte, wird der das hoffentlich auch weiterhin machen. Hat leider bis zum letzten Tag gedauert.
 
Ahhh, sorry. Beim Kopieren vergessen aus ATI ein Nvidia zu machen. Und schon steht man als Depp da. *chatt*
Doppelposting wurde automatisch zusammengeführt:

Berichtigt.
 
Hab nach dem Sprint etwas rumprobiert und vielleicht fürs nächste Mal einen Tipp, um bei Nvidia OpenCL zu erzwingen (Windows). Vielleicht kann das noch jemand gegentesten.

Download der App: https://moowrap.net/download/dnetc_wrapper_1.5_windows_intelx86__opencl_nvidia_101.exe

BM ausschalten.
Im Projektverzeichnis folgende Dateien sichern (falls sie verschwinden):
job-win32-opencl-521.1.xml
dnetc-gpu-1.5.ini
dnetc521-win32-x86-opencl.exe

app_info.xml erstellen

Achtung: Im Testrechner habe ich eine 7970 und eine 1660S. Egal was ich mache, die WU wird auf der 7970 gerechnet. Und das mit der Nvidia-App! Laufzeit ca. 290 Sek, dafür nur 1536 Cr.

Hab das auch mal für Linux gebaut. Projekt hinzufügen, Archiv im moowrap Ordner entpacken, BOINC neustarten und es kommen nur noch OpenCL WUs...
 
Ein Segen das ich dann doch noch eine Eingabe hatte, und koschis Beitrag gefunden habe.

Vorher: 2x 2080Ti und 1 WU (=CUDA31) = alle 3 Minuten 6.144 Punkte
Jetzt: 2x 2080Ti und 2 WUs (=NVIDIA-opencl 101) = alle 50 Sekunden 2x 1.536 Punkte
 
Ich habe ja mit Einigem gerechnet, aber nicht, dass koschis tar-Datei aus 10/2021 nach wie vor funktioniert,
ohne das der Boinc-Manager eine Fehlermeldung auswirft. *great*
Gut für mich. ;D
 
Zurück
Oben Unten