WCG THOR Challenge 2020

Man kann auch in den Einstellungen vom BOINC-Manager festlegen, wie viele Kerne er benutzen darf. Da kann man dann 2 Threads freilassen, die dann für die GPU-Tasks zur Verfügung stehen (geht nur, wenn den GPU-Tasks nicht schon per config 100% CPU zugewiesen worden ist).
 
Ich probier da noch ein bisschen rum. Seit gestern Abend rechnen da 30 Threads und lassen Milkyway Luft übrig. Bis heute morgen ist viel fertig, aber nix gemeldet worden. Also wie geplant :cool:
 
Nachfolgend meine Vorlage um unter Linux Instanzen anzulegen.
Damit funktioniert es bei mir einwandfrei.

1. BOINC-Manager ganz normal offen lassen, aber die Ur-Instanz anhalten (Steuerung / pausieren).

2. Neuen Bunkerordner anlegen, z.B. /home/thorsam/boinc/b01

3. Konsole öffnen (und offen lassen!) und dort folgenden Befehl eintragen:

/usr/bin/boinc --allow_multiple_clients --dir /home/thorsam/boinc/b01 --allow_remote_gui_rpc --gui_rpc_port 9001

4. Mit STRG-C die neue Instanz nochmal kurz stoppen und im Bunker-Ordner in der Datei gui_rpc_auth.cfg, die eben unter anderem erstellt worden ist, das gewünschte Passwort für den Fernzugriff eintragen, z.B. p3dn

Passwort ändern: gedit /home/thorsam/boinc/b01/gui_rpc_auth.cfg

5. Mit dem Befehl aus 3.) in der Konsole die Instanz wieder starten

6. Im BOINC-Manager unter Datei / Computer verbinden die Adresse 127.0.0.1:9001 eintragen und das unter 4.) hinterlegte Passwort und schon bist Du mit der ersten Instanz verbunden und kannst ein Projekt verbinden.

Um bei den 2P 7V12 noch den Überblick zu behalten, lege ich für jede Instanz in der Konsole einen eigenen Reiter an,
und gehe in das jeweilige Unterverzeichnis, damit es in der Reiterbezeichnung auftaucht, und ich weiß, welcher Reiter für welche Instanz auf ist.

PS: Da heutzutage nahezu Jeder eine einigermaßen vernüftige Internetanbindung hat, kann ich nur empfehlen, soweit nicht schon geschehen,
in die Datei cc_config.xml die folgende Zeile unter Optionen einzutragen:

<max_file_xfers_per_project>8</max_file_xfers_per_project>

Dann werden gleichzeitig 8 Datei rauf und/oder runter geladen. 8 ist das Maximum.
 
Zuletzt bearbeitet:
Ich bin da inzwischen noch fauler geworden. Ich blockiere einfach über den BOINC Manager alle Netzwerkverbindungen. Also nichts mehr in der hosts Datei, sondern direkt im Manager.

Davor lade ich mir für mindestens eine Woche WU runter, das passt dann schon. :)

Grüße, Martin
 
Trotz gutem Zureden und <ncpus> auf 1024 bekomme ich max. 130 WUs. :( Dann verlangesame ich halt die Berechnung. Mit 1200 MHz komm ich vielleicht ein paar Tage hin *baeh*
 
Hatte ich die Tage auf der Projektseite von QuChemPedIA unter Computer gesehen.
Wollte Dich fragen, ob es geholfen hat. Meine Epycs straft er auch mit nur 130 WUs ab,
obwohl die eine Woche lang schon fertige WUs aller Unterprojekte abgeliefert hatten.
 
Jein. Die 3700X und 3900X hatten vorher immer nur 1 WU pro Thread erhalten. Also 16 bzw. 24. Egal, wie viel im BM freigegeben war. Mit 1024 CPUs kamen dann die 130. Also hat es für die kleinen CPUs ein bisschen was gebracht. Spaßeshalber mal auf 5000 gestellt und keine Änderung gesehen. In den WCG Projekteinstellungen kann man ja auch die Anzahl der WUs begrenzen. Aber auch da überall "unlimited". Jetzt ist es noch egal. In der 4. Woche geht dann der Spaß mit Instanzen und VMs los. Die sind aber grundsätzlich schon vorhanden.
Doppelposting wurde automatisch zusammengeführt:

Gerade den 3632qm ausgepackt. Der macht bestimmt schon seit über 5 Jahren bei WCG mit. Gleiches Problem, nur eine WU pro Thread.

In der global_prefs.xml habe ich folgende Werte erhöht (da stand WCG drüber)
Code:
  <max_ncpus_pct>1000</max_ncpus_pct>
  <work_buf_min_days>10</work_buf_min_days>
  <work_buf_additional_days>10</work_buf_additional_days>

In der cc_config.xml habe ich <ncpus> auch auf 1000 gesetzt. Trommelwirbel bitte: 130 WUs *chatt*
 
Zuletzt bearbeitet:
Hmm, mein 3900x hat mit ncpu 24 388 WCG WUs, ein Mix aus ARP1 und SCC1.

Bei nur 12 laufenden ARP1 und zusätzlich SCC1 oder Universe (SCC sind durch bei mir) sind die in 12 statt 18h durch. Für die dritte und vierte Woche der Challenge ist das kein Gewinn, sobald es in der fünften Woche um Credits geht, könnte das interessant sein. Bin gespannt ob die ATP1 dann noch auf gleicher Höhe vergütet werden (bei 1/3 weniger Laufzeit).
 
Oh, ich muss heute auch Instanzen anlegen, der 3900X ist schon mit seinem Vorrat durch ;)
 
Jein. Die 3700X und 3900X hatten vorher immer nur 1 WU pro Thread erhalten. Also 16 bzw. 24. Egal, wie viel im BM freigegeben war. Mit 1024 CPUs kamen dann die 130. Also hat es für die kleinen CPUs ein bisschen was gebracht. Spaßeshalber mal auf 5000 gestellt und keine Änderung gesehen. In den WCG Projekteinstellungen kann man ja auch die Anzahl der WUs begrenzen. Aber auch da überall "unlimited". Jetzt ist es noch egal. In der 4. Woche geht dann der Spaß mit Instanzen und VMs los. Die sind aber grundsätzlich schon vorhanden.
Gerade den 3632qm ausgepackt. Der macht bestimmt schon seit über 5 Jahren bei WCG mit. Gleiches Problem, nur eine WU pro Thread.

In der global_prefs.xml habe ich folgende Werte erhöht (da stand WCG drüber)
Code:
  <max_ncpus_pct>1000</max_ncpus_pct>
  <work_buf_min_days>10</work_buf_min_days>
  <work_buf_additional_days>10</work_buf_additional_days>

In der cc_config.xml habe ich <ncpus> auch auf 1000 gesetzt. Trommelwirbel bitte: 130 WUs *chatt*
Ich habe es auf meinem R 5 PRO 4650G probiert, der lief mit Puffer 0,5 + 0,5 Tage ohne ncpus.
Puffer auf 1,5 + 0,5 Tage erhöht und schon kamen 100 WUs dazu, dann noch 1 Tag mehr und wieder kamen brav WUs.
Bei 4,5 + 0,5 Tage lief dann der Boinc-Manager im Panik-Modus weil einige OPN1 am 8.10. ablaufen.
Jetzt sind 580 WUs auf der Kiste, 293 OPN1 und 287 SCC1 ohne ncpus usw.

Mir ist schon öfter aufgefallen das der Boinc-Manager rumzickt wenn der Puffer über die Deadline eingestellt ist.

Schau doch mal was in der client_state.xml und client_state_prev.xml für ein on_frac Wert steht.
Boinc beenden und auf <on_frac>0.999873</on_frac> ändern.
Dann die ncpus auf normale Werte runterstellen, 2 x Threadanzahl oder 3 x .
Und dann den Puffer mal auf 4,5 + 0,5 Tage einstellen und schauen ob es dann klappt.
 
Oje ich hab ganze 5800 Wuzen in Bearbeitung *nosorry*
 
Also bei mir sind es jeweils 388 Wu´s für die Windows und die WSL2 Instanzen.
Da beide zeitgleich betankt wurden kann ich die Laufzeit auf einem System mal ganz gut vergleichen.
MCM auf Windows 110 Minuten bei 16 Threads und im WSL2 sind es 115 Minuten bei 16 Threads.
 
JagDoc, vielen Dank für den Hinweis. Jetzt habe ich mir ihn auch notiert.

Nichts desto trotz, sieht der Abschnitt <time-stats> von client_state.xml so aus:

Code:
<on_frac>0.999935</on_frac>
<connected_frac>0.000000</connected_frac>
<cpu_and_network_available_frac>0.973226</cpu_and_network_available_frac>
<active_frac>0.973226</active_frac>
<gpu_active_frac>0.973111</gpu_active_frac>
<client_start_time>1601613146.129828</client_start_time>
<total_start_time>1601613050.649843</total_start_time>
<total_duration>23549.792464</total_duration>
<total_active_duration>101.984123</total_active_duration>
<total_gpu_active_duration>0.000000</total_gpu_active_duration>
<previous_uptime>23516.801714</previous_uptime>
<last_update>1601636657.804574</last_update>

und in der client_state_prev.xml so:

Code:
<on_frac>0.999934</on_frac>
<connected_frac>-1.000000</connected_frac>
<cpu_and_network_available_frac>0.999349</cpu_and_network_available_frac>
<active_frac>0.999349</active_frac>
<gpu_active_frac>0.999231</gpu_active_frac>
<client_start_time>1601613146.129828</client_start_time>
<total_start_time>1601613050.649843</total_start_time>
<total_duration>664.633977</total_duration>
<total_active_duration>101.984123</total_active_duration>
<total_gpu_active_duration>0.000000</total_gpu_active_duration>
<previous_uptime>631.631193</previous_uptime>
<last_update>1601613772.646087</last_update>

Arbeitspuffer 4,0 und 0,0 Tage.
ncpu x2

Fr 02 Okt 2020 06:53:02 CEST | World Community Grid | Scheduler request completed: got 130 new tasks

Ich werde nachher die SSD tauschen. 256 GB gegen 1 TB. Wer weiß was sich der BM in Sachen Festplattenplatz da an den Fingern abzählt.
 
Bei mir muss sich Ubnuntu hier jeweils mit 50 bzw. 60GB begnügen.
Aber die OPN verbrauchen wohl auch sehr wenig Platz. 800 WUs = 1GB bzw. 1300 auf dem anderen Rechner = 2GB (jeweils komplett für WCG)
 
ARP braucht viel Platz.
Der Projekt-Ordner hat mit 8 WUs knapp 1,5 GB.
Die Slot-Verzeichnisse der laufenden WUs haben jeweils ca 700MB.

Download pro WU 100 MB komprimiert. Laut projektseite ist das auf der Platte mehr:
Please note that the data is compressed during transfer and is decompressed after it has been downloaded. As a result it will occupy more space on disk then the numbers shown below.
 
Es hilft ein paar WUs zu rechnen um wieder "Vertrauen" aufzubauen, abgebrochene hingegen scheinen sich negativ bei der WU-Vergabe bemerkbar zu machen. ncpu über 100 und geringe erlaubte CPU % führen trotzdem zu Puffern um je 200 WUs.

Code:
root@frickelbude:/cluster# boinc-instancer.sh -l
INSTANCE        PID    State   CPU  GPU  NET NCPU  CPU%   BUFFER PRJ  WUs  DL* ACT  UPL  RTR boincmgr call                                                       
boinc_29315 1341496  Running  SUSP SUSP SUSP    6 100.0 10.0/5.0   2  183   0    0   19    0 cd /obi/boinc_29315; boincmgr -m -g 29315 -d . &                    
boinc_31416 2120013  Running   ACT  ACT SUSP   24  25.0  7.0/0.0  16 1410   0    8   85  257 cd /obi/boinc_31416; boincmgr -m -g 31416 -d . &                    
boinc_38726 1690580  Running   ACT  ACT  ACT  124   6.0  8.0/2.0   1    1   0    1    0    0 cd /obi/boinc_38726; boincmgr -m -g 38726 -d . &                    
boinc_43448 1397670  Running   ATP  ATP SUSP  100  10.0  8.0/2.0   1  406   0   10    0    1 cd /obi/boinc_43448; boincmgr -m -g 43448 -d . &                    
boinc_49094 1592936  Running   ACT  ATP SUSP  128   6.0 10.0/5.0   2  238   0    7    6    0 cd /obi/boinc_49094; boincmgr -m -g 49094 -d . &                    
boinc_58222 1613266  Running   ACT  ATP  ACT  124   4.0 10.0/2.0   1   14   0    4    0    0 cd /obi/boinc_58222; boincmgr -m -g 58222 -d . &                    
Load average: 31.20/31.36/30.70                                      2252   0   30  110  258

ACT = Active (Run always)
ACP = Run based on preferences
ATP = Network access based on preferences
SUSP = suspended
RTR = Ready to report

Ich denke die Woche vor der vierten und fünften Woche bekomme ich mit SCC1 aus verschiedenen Bunkern überbrückt. ARP1 würde ich gern weglassen sobald ich da die 5 Jahre voll hab...
 
Zuletzt bearbeitet:
So die Info bzgl. der 3. Woche ist online *attacke*

Ich muss nu einen Artikel bzgl. diverserer "Stapelläufe" basteln - insoweit Danke an Thorsam & Sightus
 
Zuletzt bearbeitet:
Ich bin so was von happy. Die größere Festplatte hat das Problem gelöst.
Das der Rechner unterm Strich nur maximal Arbeit für ca. 18 Stunden bekommt,
ist wohl dem Rechenmodell des BM geschuldet, dass nicht mit den selbst erkannten
256 Threads rechnet. Sei es drum, dafür gibt es ja Instanzen. Jetzt brauche ich nur noch
maximal die Hälfte. :)
Und man möchte es ja nicht glauben, aber der gute alte dd-Befehl funktioniert bei der heutigen Hardware noch.
dd if=/dev/nvme0n1 of=/dev/sda bs=31 und schwubs, war der ganze Krempel von der M.2-SSD auf der normalen SSD.
Läuft. *clap*
 
Äcke-Äx. Ausgerechnet für die vierte Woche hat die Familie Urlaub geplant. Was nun?
Ich mag die Rechner nicht völlig ohne Aufsicht 10 Tage laufen lassen... *suspect*
 
Wie jetzt? Fünfte Woche? O.K., das muss dann zwangsweise die Woche nach der vierten Woche sein.

(Keine Scheckung hat der alte Mann...) :-/
 
02.11.2020 - 08.11.2020
Da dürfen wir ran, wenn wir insg. unter den ersten 10 Teams landen *attacke*
 
Ich schätze mal, dass ihr das ohne mich auch rockt, so bedeutend sind meine 40 Ryzen-Threads nun auch wieder nicht.
Ja, in dem Zeitraum 2.-8.11. könnte ich auch nochmal bei. Dann schmeiße ich auch etwas mehr an, zum Ausgleich eben.
 
Ich schätze mal, dass ihr das ohne mich auch rockt, so bedeutend sind meine 40 Ryzen-Threads nun auch wieder nicht.

Junge ?!? Was isn dat für eine Einstellung?
*elch* *elch* *elch* *elch* *elch* *elch* *elch* *elch* *elch*

In der 4. Woche brauchen wir alles was geht - wir wollen doch nicht Bronze oder Blech!
 
Na gut, ich sage meiner Frau und den Enkeln, dass DU meinen Urlaub gestrichen hast.
Dann wollen wir mal sehen, bei wem mehr Elche auftauchen.... *elch*
 
Zurück
Oben Unten