Allgemeiner Plauderchat über das Thema DC Part III

Status
Für weitere Antworten geschlossen.
Für nen halben Tag kann man das ja mal machen, is schon heftig. Das hab ich wahrscheinlich in den drei Tagen auch verbraucht. 8)
 
Bei mir ist das noch nicht einmal ein halber Tag denn die rechnen bei dem Projekt ja erst seit ca. 2 Stunden.Tagsüber hätte aber ohnehin nur ein Rechner rechnen können denn bei den 22 °C Außentemperatur genz das Kühlmittel mit ca. 47 °C in den Radi rein und kommt mit ca. 41 °C wieder raus. *buck*
 
Ja das Wetter ist für so eine Anlage gerade eben nicht so optimal. Ich fahr auch schon mal den Rechner mit der 1660 runter, der andere hat noch bis kurz nach Ende vom Sprint Arbeit da. Da wirds hier auch wieder angenehmer.
 
Da kann ich mich nicht beklagen den die Auslastung liegt bei mir auf beiden Rechnern bei 99%. (Windows)
Bekommen die WUs bei dir vielleicht zu wenig CPU Laufzeit ab?

Habe idR. 99% der Kerne aktiviert, GPUGrid und Einstein laufen damit sehr gut.
dnetc braucht hier nur ~5% CPU je WU, müsste reichen...
 
Ich bin schon am überlegen ob ich die 4x 230er BitFenix Spectre gegen die Spectre Pro Variante austausche da sie lt. Daten deutlich mehr Luftdurchsatz und damit eine bessere Kühlung ermöglichen würden. Leider haben aber auch diese keine PWM Unterstützung.

--- Update ---

@ koschi
Wenn ich bei mir in die Kern Auslastungsanzeige schaue dann liegt die idR. im Bereich von ca. 10-20%. Von 5% Auslastung der gesammten CPU auszugehen wäre also fatal.
 
Dann ist es doch noch ein ungefährdeter P5 geworden *clap*
Glückwunsch an alle Teilnehmer!
 
@ koschi
Wenn ich bei mir in die Kern Auslastungsanzeige schaue dann liegt die idR. im Bereich von ca. 10-20%. Von 5% Auslastung der gesammten CPU auszugehen wäre also fatal.


In the name of science hab ich heute erst stundenlang WCG pausiert, damit dann gute Zeiten (500-550 Sekunden) erhalten. Auslastung pro dnetc Prozess ist 4-5% eines Threads. Leider hatte ich vergessen dnetc in meine erzwungene Kernzuweisung aufzunehmen, damit hatte sich zuvor dnetc dann die Rechenzeit mit WCG teilen müssen und der freigelassene Kern war idle. Nach fester Kernzuweisung und mit laufendem WCG bleibt die Laufzeit pro WU stabil bei obigen Werten.
Blöd gelaufen, Fehler in Schicht 8, bitte ignorieren ;-)
 
@koschi:
Mal eine dumme Frage: Wie machst Du die genannte feste Kernzuweisung? ???
 
@ koschi

Mix aus CPU und GPU WUs, damit hatte ich mir schon oft ein Eigentor geschossen, erst recht wenn SMT mit im Spiel war, je eine CPU und eine GPU WU auf dem Kern lief und die CPU WU der GPU WU die Laufzeit wegfraß. Seither reserviere ich jeder GPU WU einen ganzen Kern und schalte SMT beim Mix Einsatz ab.
 
Minütlich lasse ich alle BOINC Prozesse, abzüglich der GPU Prozese auf die Threads 0-21 festnageln:

Code:
* * * * * ps -f -U boinc | egrep -v "dnetc|cuda30|collatz_sieve|milkyway|opencl_nvidia_100|einstein|x41p" | awk '{ print "taskset -a -p -c 0-21 " $2 }' | bash
Alle 15 Sekunden lasse ich dann die BOINC GPU Prozesse auf die Threads 22-23 zuweisen:
Code:
* * * * * ps -f -U boinc | awk '/dnetc|cuda30|acemd3|opencl_nvidia_100|FGRPopencl1K-ati|x41p/ { print "taskset -a -p -c 22-23 " $2 }' | bash
* * * * * sleep 15; ps -f -U boinc | awk '/dnetc|cuda30|acemd3|opencl_nvidia_100|FGRPopencl1K-ati|x41p/ { print "taskset -a -p -c 22-23 " $2 }' | bash
* * * * * sleep 30; ps -f -U boinc | awk '/dnetc|cuda30|acemd3|opencl_nvidia_100|FGRPopencl1K-ati|x41p/ { print "taskset -a -p -c 22-23 " $2 }' | bash
* * * * * sleep 45; ps -f -U boinc | awk '/dnetc|cuda30|acemd3|opencl_nvidia_100|FGRPopencl1K-ati|x41p/ { print "taskset -a -p -c 22-23 " $2 }' | bash
Gegenüber der 99% Einstellung gewinne ich bei 2 parallelen Einstein WUs damit knapp eine Minute pro WU. Ohne Zuweisung und erlaubter 99% CPU Nutzung bin ich bei ~11-11:30 Minuten. Fest zugewiesen und 99% CPU sinkt die Rechenzeit auf ~ 10:10 - 10:20min
 
Zuletzt bearbeitet:
Hm ok - das ist mir dann doch zu aufwendig - und ich müsste mir dann auch noxch was für Windows überlegen... :]
 
Für Windows könnte Process Lasso helfen.
 
Guter Tipp, kostet aber imho? Muss ich mir mal anschauen...
 
Einmal auf die eigenen Projektanwendungen angepasst und in cron abgelegt hält sich der Aufwand eigentlich in Grenzen.
Ich hatte gestern noch tagsüber ausschließlich Einstein laufen lassen und WCG pausiert, die Zeiten blieben gleich. Mit der festen Zuweisung läuft es also ebenso schnell wie auf einem ansonsten idle System.
 
Leute, das DC-Dasein hat wieder einen Sinn.
Die Affen sitzen wieder an den Schreibmaschinen. Goofyxgrid is back! ;)
 
Schon gemerkt, die WUzen purzeln wieder.
 
Hätte ich nicht mehr gemerkt, weil die überall raus sind. Wie sieht es mit den alten Problemchen aus? full core statt NCI ???
Geht doch immernoch, oder?

--- Update ---

Nun, wie immer. Zwar nur auf einem PC ausprobiert, aber inkl. Projekt reset. Ich kriege nichts.
Jetzt lasse ich das mal laufen und wenn es morgen früh noch immer so ist, dann eben nicht *noahnung*

--- Update ---

Meldungen:
24.07.2020 19:29:40 | GoofyxGrid@Home NCI | update requested by user
24.07.2020 19:29:56 | GoofyxGrid@Home NCI | Master file download succeeded
24.07.2020 19:30:10 | GoofyxGrid@Home NCI | Can't find host record
24.07.2020 19:30:10 | GoofyxGrid@Home NCI | Invalid or missing account key. To fix, remove and add this project .
24.07.2020 19:30:10 | GoofyxGrid@Home NCI | Project requested delay of 3600 seconds


Hm, als wenn ich das nicht schon getan hätte. *buck*

--- Update ---

Komisch, anscheinend sind aller guten Dinge doch drei. Beim dritten Mal ging es dann. Ein Affe_V1 läuft. (seltsamer Weise diesmal ohne Reaktion des Virenscanners)
 
Im MindStar gibt es noch RX 570.karten für 133€ an sich immer noch ne gute DC karte
 
Beim FB Sprint ist LHC@Home dran. Da scheinen wieder recht wenige andere Teams mitzumachen, so dass relativ einfach Punkte drin sind.
 
Das war doch die Geschichte mit VMs und WUs, die mehrere Kerne gleichzeitig nutzen, oder?

Das Thermometer sagt mir aber ohnehin gerade: Lass es. :(
 
Die Atlas WUs können mehrere Kerne nutzen und für Atlas und Theorie WUs gibt es auch eine native Linux Unterstützung die aber erst eingerichtet werden muss. Bei den Theorie WUs hatte ich aber schon öfters das "Vergnügen" das diese sich festgefressen hatten und dann den Kern/Thread blockierten.

PS: ich werfe mal 64 Kerne für Atlas in den Ring.

Edit: Ach ja, die Atlas WUs sind riesig, also nix für volumen Tarife. ;)
 
Zuletzt bearbeitet:
... und für Atlas und Theorie WUs gibt es auch eine native Linux Unterstützung die aber erst eingerichtet werden muss.
Wo war denn hier die Anleitung dafür? Ich find die grad auf die Schnelle nicht. Normalerweise rechne ich nur Sixtrack, aber da gibt's wohl aktuell kaum/keine WUs.

Aufgrund der aktuellen Temperaturen würde von mir aber eh nur der Athlon 200GE mitrechnen.

Gruß
Ritschie
 
Ich fürchte, unter openSUSE hilft mir das nicht weiter, richtig *noahnung*

Gibt's da eine offizielle allgemeine Anleitung für Linux in deutsch?!

Gruß
Ritschie
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten