WCG THOR Challenge 2020

Glückwunsch ans Team. Endlich mal wieder 1. Hat Spaß gemacht.
Mit konkurrenzfähigen Gegnern hätte es mehr Spaß gemacht. Vielleicht war unsere Epyc-Schwemme einfach zu monströs. Wenn selbst die kommerziellen Teams keine Chance hatten. Da entfällt ja quasi das Argument, dass die nicht mitmachen dürfen, weil sonst niemand eine Chance gegen die hätte.

Und ich hatte mich schon auf die Ruhe im arbeitszimmer gefreut....
Falscher Kühler! Ich schlafe hier 2m neben dem Rechner, ohne dass es mich stört.
 
Mit konkurrenzfähigen Gegnern hätte es mehr Spaß gemacht. Vielleicht war unsere Epyc-Schwemme einfach zu monströs. Wenn selbst die kommerziellen Teams keine Chance hatten. Da entfällt ja quasi das Argument, dass die nicht mitmachen dürfen, weil sonst niemand eine Chance gegen die hätte.
Warten wir mal den Pentathlon ab. Dort hatten wir ja nun die letzten Jahre keine Chance auf Platz 1. Das Race ist bei mehr Crunchern gesetzt, denke ich.
 
Bei CPU-Only-Projekten sieht es ganz gut aus. Bei GPU-Projekten, insbesondere solche mit CUDA ist das ein ganz anderer Schnack
 
Und ich hatte mich schon auf die Ruhe im arbeitszimmer gefreut....
Falscher Kühler! Ich schlafe hier 2m neben dem Rechner, ohne dass es mich stört.
Beim Wasserkühler höre ich eben wenn die Pumpe hochgeht. Vermutlich könnte der R9 aber viel kühler sein, wenn ich einen passenden Kühler hätte und nicht den ollen G34-Kühler verwenden würde. Dafür ist der Leidensdruck aber doch nicht hoch genug *buck*
 
(War ViewtOZ zu faul zum Bunkern? *kopfkratz Oder hat er gesehen, dass es nicht reichen wird und sich daher auf das Spielchen gar nicht erst eingelassen?)
In der Shutbox hat er geschrieben, dass für ihn die Birthday Challenge priorität hat, und er darum seit Freitag am bunkern ist.
 
*kopfkratz Gehen wir also nur auf SCC-Bunker?
 
Wir gehen auf volle Power *attacke*
 
Herzlichen Glückwunsch ans Team *clap**greater**attacke*
Schön zu sehn wie weit wir auch ohne Cluster gekommen wären, daher danke an jeden Einzelnen der mitgemacht hat. *bye2*
 
Glückwunsch ans Team. 8)*clap*

Zahlen von gestern, da muß noch einiges im Pending sein.
Code:
Username:     Total Run Time (y:d:h:m:s):     Points Generated: Results Returned:
p3d-cluster     28:087:20:24:08                     57,894,768         157,511
 
Gehen wir also nur auf SCC-Bunker?
Also ich schon. Auch wenn das mehr Arbeit macht. Da muss ich selbst auf den 1700ern eine 2. Instanz anlegen und beim 3950X reichen die 3 vorhandenen Instanzen auch nicht, da werden mindestens 5, eher 6 nötig sein. So einen 64-Kern Epyc würde ich ehrlich gesagt ohne Bunkern einfach nur laufen lassen.
 
Das anlegen der Instanzen ist eigentlich ganz einfach. Nervig ist nur das teilweise immer wieder notwendige händische Anstoßen des "Nachladens". Die Epycs bringen beim Bunkern über 1 Woche reichlich Bugwelle *buck*
 
Ja, das Anlegen macht die wenigste Arbeit. Aber das Befüllen und rechtzeitige umschalten und dabei aufpassen, dass es kein Leck gibt - das ist das eigentliche Problem.
 
Ich lass das hier mal so stehen ?

Screenshot from 2020-11-08 21-30-49.png
 
Stimmt da war ja was mit einem Script. :)
Muss ich wohl doch mal in Ruhe anschauen.
 
Einfach mal reinschauen, bei Fragen bin ich da, Änderungswünsche, Fehler usw kann ich aktuell zeitnah bearbeiten...
 
Sieht interessant aus. Was meint ihr dazu einen Hitzköpfigen A6-3410 einzusetzen, lohnt sich das noch?
 
Hallo koschi, in Zeile 265 ist ein Schreibfehler im Instancer-Script "/obi/boinc_$....", der Symlink wird so nicht erstellt.
Überhaupt sind da einige "/obi/" Pfade drin, wieso dass denn ?

... ok, bei mir unter WSL kann er den Pfad nicht in / erstellen, muß ich mal weiter analysieren ...
Oha, da hat das Script mein gerade laufenden Bunker (der unter nem anderen Port läuft) als Standard instance_homes/~boinc_31416 genommen, das würde ich so nicht wollen.
 
Zuletzt bearbeitet:
Danke! von /obi bin ich wieder von ab, werde ich entfernen.
Doppelposting wurde automatisch zusammengeführt:

Update ist oben. /obi/ sollte ein Shortcut werden um den BOINC Manager Aufruf einfacher zu gestalten, aber der funktioniert ja eh nur über den angemeldeten User, der wiederum hat aber meist eh keinen Zugriff auf die gui_rpc_auth.cfg in den von root angelegten BOINC Instanzen.

hab noch -t hinzugefügt um alle Instanzen zu stoppen, Ausgabe der vollen Liste nach start oder stop erstmal deaktiviert, das hat beim Cluster dann immer ewig gedauert :-D
 
Zuletzt bearbeitet:
und wäre es möglich mit einem Start-Port anzufangen und dann die Ports eher hochzuzählen? Mir persönlich würde es besser gefallen, da man so den besseren Überblick der Instanzen hätte, ist aber nur mein persönliches empfinden!
 
oh, das klingt interessant, wo liegt der, hast du noch die Ausgabe von -E ?
Doppelposting wurde automatisch zusammengeführt:

ja das ginge auch, aktuell würfel ich den aus in der Hoffnung zwischen 9000 und 65k auf einen freien Port zu treffen. Baue ich mal um...
 
Mit -E hatte ich nicht angefangen ;), mit -e erstmal die Verzeichnisse erstellen lassen (erstellt dann /obi) und hab dann nachgesehen was so passiert ist.
... Dann ist noch das Problem, meine gui_rpc_auth.cfg ist ein Symlink, du checkst mit -f , das geht dann schief,
if [ -f gui_rpc_auth.cfg ] || [ -L gui_rpc_auth.cfg ]; then
sollte dann funktionieren.
 
Zuletzt bearbeitet:
Respekt Jungs! *great*

Für mich sind das böhmische Dorfer. *noahnung*

Ist das "Telekolleg Linux" für Fortgeschrittene? ;D ;)
 
Zurück
Oben Unten