WCG THOR Challenge 2020

Um es mal mit Crashtests Worten zu sagen: die leistung war epysch - nebenbei haben aber noch eine paar andere CPUs das Race gerippt ;)

Aufgrund der tollen Leistung wäre auch ich für einen Orden. Von meiner Seite wäre der Vorschlag von X_FISH definitiv gesetzt!

Allerdings mein Wunsch: lasst uns bis nach der Pure-Challenge mit der Diskussion warten. Die will ich nämlich auch noch gewinnen! *attacke*

Gruß
Ritschie

Wenn wir dat auch gewinnen sollten brauchen wir einen Doppel-Hammer-Orden *attacke*
 
Ich scheine ein "Platzproblem" auf der Platte vom Epyc zu haben *kopfkratz Allerdings ist auf der SSD genug frei und bei den Einstellungen ist auch nichts eingeschränkt... Da hängt es doch wieder wo anders .... nur WO *noahnung*
Mo 26 Okt 2020 18:43:45 CET | | General prefs: using separate prefs for school
Mo 26 Okt 2020 18:43:45 CET | | Reading preferences override file
Mo 26 Okt 2020 18:43:45 CET | | Preferences:
Mo 26 Okt 2020 18:43:45 CET | | max memory usage when active: 231899.94 MB
Mo 26 Okt 2020 18:43:45 CET | | max memory usage when idle: 231899.94 MB
Mo 26 Okt 2020 18:43:45 CET | | max disk usage: 413.40 GB
Mo 26 Okt 2020 18:43:45 CET | | suspend work if non-BOINC CPU load exceeds 90%
Mo 26 Okt 2020 18:43:45 CET | | (to change preferences, visit a project web site or select Preferences in the Manager)
Mo 26 Okt 2020 18:44:22 CET | World Community Grid | General prefs: from World Community Grid (last modified 26-Oct-2020 14:02:32)
Mo 26 Okt 2020 18:44:22 CET | World Community Grid | Computer location: school
Mo 26 Okt 2020 18:44:22 CET | | General prefs: using separate prefs for school
Mo 26 Okt 2020 18:44:22 CET | | Reading preferences override file
Mo 26 Okt 2020 18:44:22 CET | | Preferences:
Mo 26 Okt 2020 18:44:22 CET | | max memory usage when active: 231899.94 MB
Mo 26 Okt 2020 18:44:22 CET | | max memory usage when idle: 231899.94 MB
Mo 26 Okt 2020 18:44:22 CET | | max disk usage: 413.33 GB
Mo 26 Okt 2020 18:44:22 CET | | suspend work if non-BOINC CPU load exceeds 90%
Mo 26 Okt 2020 18:44:22 CET | | (to change preferences, visit a project web site or select Preferences in the Manager)
Mo 26 Okt 2020 18:44:29 CET | World Community Grid | update requested by user
Mo 26 Okt 2020 18:44:34 CET | World Community Grid | Sending scheduler request: Requested by user.
Mo 26 Okt 2020 18:44:34 CET | World Community Grid | Requesting new tasks for CPU
Mo 26 Okt 2020 18:44:36 CET | World Community Grid | Scheduler request completed: got 0 new tasks
Mo 26 Okt 2020 18:44:36 CET | World Community Grid | No tasks sent
Mo 26 Okt 2020 18:44:36 CET | World Community Grid | Nachricht vom Server: Smash Childhood Cancer needs 100.00MB more disk space. You currently have 0.00 MB available and it needs 100.00 MB.
Mo 26 Okt 2020 18:44:36 CET | World Community Grid | Nachricht vom Server: Africa Rainfall Project needs 1536.00MB more disk space. You currently have 0.00 MB available and it needs 1536.00 MB.
 
Neues Board da (MSI B550M Mortar), alles wieder zusammengebaut und die Kiste rennt wieder. *party*
 
Ich habe zwar heute früh angefangen, die Bunker zu füllen. Aber die sind alle nur halb voll geworden. :(
Zwecks Arbeit konnte ich aber tagsüber nicht nachgucken, wo es hängt.
Muss ich dann mal schauen. Es sieht aber so aus, als komme ich beim 3950X nicht um Instanzen herum. Der hat zwar für 3,5 Tage ARP, aber nur für einen Tag SCC erhalten und heißt es dauernd "too many running WUs." Damit klappt es auch nicht, ARP und SCC 50/50% laufen zu lassen, das geht eher in Richtung 75%ARP. Oder ich muss 2 Instanzen mit je der Hälfte der Kerne laufen lassen.
Ich hätte wohl einfach bei OPN bleiben sollen.
 
ich hab etwas über 1100 WUs bekommen bei meinem 3700X
 
doch wieder wo anders .... nur WO *noahnung*
Sompe hatte mir mit dem richtigen Rat auf die Spur geholfen.
Aus irgend einem Grund möchte der BM, in den 3 Feldern zum Thema "Festplatte", Eintragungen haben.
Ob es von BM-Version zu BM-Version unterschiedlich ist, habe ich nicht ausgeguckt, hat mich aber geholfen.
 
doch wieder wo anders .... nur WO *noahnung*
Sompe hatte mir mit dem richtigen Rat auf die Spur geholfen.
Aus irgend einem Grund möchte der BM, in den 3 Feldern zum Thema "Festplatte", Eintragungen haben.
Ob es von BM-Version zu BM-Version unterschiedlich ist, habe ich nicht ausgeguckt, hat mich aber geholfen.
Ja, den Beitrag habe ich auch gerade gefunden. Fehlermeldung ist weg, jetzt will er aber erst mal ein paar fertige WUs sehen *buck*

Den 3900X habe ich jetzt von Ubuntu 20.10 (hier gab es nach dem Update von 20.04 schon wieder Permission-Probleme) ebenfalls auf Mint 20 aufgesetzt.
 
Ich kann leider nicht bunkern, aber zumindest durchlaufen werden die Kisten
 
doch wieder wo anders .... nur WO *noahnung*
Sompe hatte mir mit dem richtigen Rat auf die Spur geholfen.
Aus irgend einem Grund möchte der BM, in den 3 Feldern zum Thema "Festplatte", Eintragungen haben.
Ob es von BM-Version zu BM-Version unterschiedlich ist, habe ich nicht ausgeguckt, hat mich aber geholfen.
Hatte ich hier die Tage auch mit meiner Hauptinstanz, wollte partout keine weiteren WUs ziehen, "needs another 500MB of disk space", grrr. Obwohl alles freigegeben war und 400GB frei waren, ging es erst weiter nachdem ich überall was eingetragen hatte. Die Wege des BOINC sind unergründlich...
Doppelposting wurde automatisch zusammengeführt:

All scots are closed.
 
Zuletzt bearbeitet:
Erst dachte ich, es sind nun endlich genug SCC da - aber alle nur bis 29.10. haltbar. Also wieder zurück damit und nun alles mit OPN vollgestopft.
 
Du bist halt ein dufter Typ und kriegst die ganzen Resends als Dankeschön :-(
 
ARP only auf allen Threads ist alles andere als effizient. Der Epyc nutzt zwar nur ca. 108 GB RAM aber die Rechenzeiten gehen massivst nach oben.
Es stehen zwar auch jede Menge SCC im Bunker, aber irgendwie mag er immer erst ARP rtechnen (liegt vmtl. an der kürzeren Deadline).

Bräuchte da noch mal Hilfe (bin zu blöd die richtigen Schlagworte in die SuFu einzutragen :-/):
Was muss ich wo eintragen, um die ARP-Threads zu begrenzen? Bei 128 Threads auf 48 oder weniger einschnüren?

Dickes Danke schon mal vorab *joy*
Doppelposting wurde automatisch zusammengeführt:

Erst dachte ich, es sind nun endlich genug SCC da - aber alle nur bis 29.10. haltbar. Also wieder zurück damit und nun alles mit OPN vollgestopft.
Ist ja komisch, meine gestern geladenen SCC laufen alle bis 05.11. - die ARP bis 02.11. mind. Mittags. Der EPYC hatte zwischendrin nur 2 ARPs mit 30.10. bekommen.
 
Zuletzt bearbeitet:
Ich mach keine Experimente mehr - Newer touch a crunshing Dingsda!

Meine Kisten bleiben so wie sie sind mit der jeweiligen Windows 10 Version ohne Windows Update weil den Kisten die wuaueng.dll fehlt (ergo kein Windows Update Dienst) bzw. Kubunto 20.04.1
 
Suchst Du eventuell diesen Punkt hier:

projectlimits.png
Bei jedem Unterprojekt kannst Du zwischen Unlimitiert, 1, 2, 3 ..... 64 einstellen.
Soweit es mir noch in Erinnerung ist, ist bei ARP standardmäßig 1 eingetragen.
 
Zuletzt bearbeitet:
Die News bzgl. Arbeit für den 2. Hammer ist raus
 
Wenn ich nur 10 ARP laufen lasse (Rest SCC), laufen die ARP nur 11-12h bei aktuell ~3.4GHz.
 
Suchst Du eventuell diesen Punkt hier:

Anhang anzeigen 41443
Bei jedem Unterprojekt kannst Du zwischen Unlimitiert, 1, 2, 3 ..... 64 einstellen.
Soweit es mir noch in Erinnerung ist, ist bei ARP standardmäßig 1 eingetragen.
Den Punkt kenne ich ;)
Ist aber schlecht zum Bunkern geeignet.

Der (erneute) Hinweis von Magic war der gesuchte: app-config.xml *great*
Siehe https://forum.planet3dnow.de/index.php?threads/wcg-thor-challenge-2020.436703/post-5304820 (Achtung, da ist ein typo drin: scc statt ssc nehmen!)
Ja, die Rechenzeiten sind von 15 auf 18 Stunden rauf bei ARP, aber da kann ich jetzt nicht viel dagegen machen.

Jetzt muss ich in Mint nur noch das entsprechende projects-Verzeichnis finden und die Datei unter WCG ablegen...*buck*
Doppelposting wurde automatisch zusammengeführt:

[X] Erledigt und funktioniert :)

Für den ersten Versuch 8 ARP-Threads auf dem 3900X und 48 ARP-Threads auf dem Epyc

P.S.
Das WCG-Projekt-Verzeichnis für die app_config.xml findet man unter /var/lib/boinc-client/projects
Datei dort reinkopieren (z.B. via sudo nemo) und zur "Aktivierung" im Boinc-Manager unter "Optionen" -> "Konfigurationsdateien einlesen" drücken
 
Zuletzt bearbeitet:
Wenn ich nur 10 ARP laufen lasse (Rest SCC), laufen die ARP nur 11-12h bei aktuell ~3.4GHz.
Dann muss ich wohl ober übel heute oder spätestens morgen eine neue Instanz anlegen und noch mal was nachfassen.
*Anleitungsuchengeh*
 
Wenn ich nur 10 ARP laufen lasse (Rest SCC), laufen die ARP nur 11-12h bei aktuell ~3.4GHz.
Dann muss ich wohl ober übel heute oder spätestens morgen eine neue Instanz anlegen und noch mal was nachfassen.
*Anleitungsuchengeh*
Du meinst so etwas in der Art von Thorsam?

1. BOINC-Manager ganz normal offen lassen, aber die Ur-Instanz anhalten (Steuerung / pausieren).

2. Neuen Bunkerordner anlegen, z.B. /home/magic/.BOINC/b01

3. Konsole öffnen (und offen lassen!) und dort folgenden Befehl eintragen:

/usr/bin/boinc --allow_multiple_clients --dir /home/magic/.BOINC/b01 --allow_remote_gui_rpc --gui_rpc_port 9001

4. Mit STRG-C die neue Instanz nochmal kurz stoppen und im Bunker-Ordner in der Datei gui_rpc_auth.cfg, die eben unter anderem erstellt worden ist, das gewünschte Passwort für den Fernzugriff eintragen, z.B. p3dn

Passwort ändern: gedit /home/magic/.BOINC/b01/gui_rpc_auth.cfg

5. Mit dem Befehl aus 3.) in der Konsole die Instanz wieder starten

6. Im BOINC-Manager unter Datei / Computer verbinden die Adresse 127.0.0.1:9001 eintragen und das unter 4.) hinterlegte Passwort und schon bist Du mit der ersten Instanz verbunden und kannst ein Projekt verbinden.


PS: Da heutzutage nahezu Jeder eine einigermaßen vernüftige Internetanbindung hat, kann ich nur empfehlen, soweit nicht schon geschehen,
in die Datei cc_config.xml die folgende Zeile unter Optionen einzutragen:
(sudo gedit /etc/boinc-client/cc_config.xml)

<options>
<max_file_xfers_per_project>8</max_file_xfers_per_project>
</options>

Dann werden gleichzeitig 8 Datei rauf und/oder runter geladen. 8 ist das Maximum.
 
Nachfolgend meine Vorlage um unter Linux Instanzen anzulegen.
Damit funktioniert es bei mir einwandfrei.

1. BOINC-Manager ganz normal offen lassen, aber die Ur-Instanz anhalten (Steuerung / pausieren).

2. Neuen Bunkerordner anlegen, z.B. /home/thorsam/boinc/b01

3. Konsole öffnen (und offen lassen!) und dort folgenden Befehl eintragen:

/usr/bin/boinc --allow_multiple_clients --dir /home/thorsam/boinc/b01 --allow_remote_gui_rpc --gui_rpc_port 9001

4. Mit STRG-C die neue Instanz nochmal kurz stoppen und im Bunker-Ordner in der Datei gui_rpc_auth.cfg, die eben unter anderem erstellt worden ist, das gewünschte Passwort für den Fernzugriff eintragen, z.B. p3dn

Passwort ändern: gedit /home/thorsam/boinc/b01/gui_rpc_auth.cfg

5. Mit dem Befehl aus 3.) in der Konsole die Instanz wieder starten

6. Im BOINC-Manager unter Datei / Computer verbinden die Adresse 127.0.0.1:9001 eintragen und das unter 4.) hinterlegte Passwort und schon bist Du mit der ersten Instanz verbunden und kannst ein Projekt verbinden.

Um bei den 2P 7V12 noch den Überblick zu behalten, lege ich für jede Instanz in der Konsole einen eigenen Reiter an,
und gehe in das jeweilige Unterverzeichnis, damit es in der Reiterbezeichnung auftaucht, und ich weiß, welcher Reiter für welche Instanz auf ist.

PS: Da heutzutage nahezu Jeder eine einigermaßen vernüftige Internetanbindung hat, kann ich nur empfehlen, soweit nicht schon geschehen,
in die Datei cc_config.xml die folgende Zeile unter Optionen einzutragen:

<max_file_xfers_per_project>8</max_file_xfers_per_project>

Dann werden gleichzeitig 8 Datei rauf und/oder runter geladen. 8 ist das Maximum.
Ich bin gerade bei Punkt 3 gescheitert. Der ordner bleibt komplett leer. :(

/usr/bin/boinc --allow_multiple_clients --dir /media/Magiceye04/Boinc/b01 --allow_remote_gui_rpc --gui_rpc_port 9001

Den Ordner b01 habe ich auf einer komplett leeren Partition namens Boinc erstellt. Wenn ich mir die Eigenschaften des Ordners b01 anzeigen lasse, dann wird mir der Pfad media/Magiceye04/Boinc genannt als übergeordneter Ordner.
Ich habe mich nicht verschrieben, denn wenn ich das absichtlich mache, dann bekomme ich eine Meldung, dass der Ordner nicht existiert.
Die Zugriffsrechte des Ordners b01 sind drwxr-xr-x
Besitzer ist "ich". Gruppe ist root.<--Fehler gefunden. Nautilus war noch als root gestartet.
 
Zuletzt bearbeitet:
Zurück
Oben Unten