Allgemeiner Plauderchat über das Thema DC Part III

Status
Für weitere Antworten geschlossen.
Solange das 21H1 noch nicht dabei war... Da soll es auch wieder diverse Probs geben.
 
Das ist ja auch erst seit heute offiziell freigegeben und wird noch nicht für alle Systeme ausgerollt...
 
Das 20KB Update für Windows 10 20H1 und 20H2 auf 21H1 sind ein Witz und nicht das Problem derzeit.
Hab ich seit Dezember 2020 drauf....
 
Das "Update" selber wurde ja schon vorher verteilt und aktualisiert - der "Enabler" ist nur recht klein.
Kann aber schon sein, dass die Pakete, die das eigentliche Upgrade ausmachen noch problembehaftet sind...
 
Vom Penta habe ich bei Einstein immer noch 146 im Pending, da scheint es ja grössere "Müllbunker" gegeben zu haben. Das geht da von den ca 300 beim Ende auch nur langsam runter. Bei Primegrid ist nuch 1 WU im Pending.

Das dürfte ja bei anderen im Team noch heftiger sein.
 
Bei Primegrid bekomme ich jeden Tag noch credits.
Bei Einstein hat mein Absturz auf dem Hauptrechner sicher auch etwas mehr Pending erzeugt als erwartet.
 
Einstein: 110 WU
hier ist Alles durchwachsen, abgebrochen, Zeitüberschreitung, Berechnungsfehler aber nicht mehr als 2x

Prime: 4 WU
alle wurden 2 wurden 4x aufgegeben und 2 nur 3x aufgegeben bzw. Zeitüberschreitung
.......sind die Chicken wings noch am knuspern (möge Ihnen beim Händewaschen die Hemdsärmel runterrutschen!)
 
Bei der verblieben WU bei Primegrid ist das schon eine nette History:

Erklärung StatusLaufzeit
(sek)
CPU Zeit
(sek)
PunkteAnwendung
122293162610781438 May 2021 | 15:26:46 UTC15 May 2021 | 16:26:46 UTCZeitüberschreitung - keine Antwort
0.00​
0.00​
---​
PPS (Sieve) v1.42 (cudaPPSsieve)
122293162710780218 May 2021 | 15:26:20 UTC10 May 2021 | 19:58:16 UTCAbbruch durch Benutzer
0.00​
0.00​
---​
PPS (Sieve) v1.42 (cudaPPSsieve)
1224034490107754710 May 2021 | 20:02:15 UTC10 May 2021 | 22:46:51 UTCAbbruch durch Benutzer
0.00​
0.00​
---​
PPS (Sieve) v1.42 (cudaPPSsieve)
122411432493455610 May 2021 | 23:59:41 UTC11 May 2021 | 18:27:44 UTCFertig, Warte auf Bestätigung
1,221.36​
1,218.20​
ausstehend​
PPS (Sieve) v1.42 (cudaPPSsieve)
1225649922104135315 May 2021 | 16:37:36 UTC21 May 2021 | 16:44:51 UTCAbbruch durch Benutzer
0.00​
0.00​
---​
PPS (Sieve) v1.42 (openclatiPPSsieve)
1227172866105397621 May 2021 | 17:18:01 UTC28 May 2021 | 18:18:01 UTCIn Bearbeitung
 
Vom Penta habe ich bei Einstein immer noch 146 im Pending, da scheint es ja grössere "Müllbunker" gegeben zu haben. Das geht da von den ca 300 beim Ende auch nur langsam runter. Bei Primegrid ist nuch 1 WU im Pending.

Das dürfte ja bei anderen im Team noch heftiger sein.
Meiner rechnet noch immer. Da ich blöderweise Collatz aktiviert habe -> haben die sich vorgemogelt. :D

Grüße, Martin
 
Mein pending bei Einstein 574, mindestens 2 Tage habe ich noch nach Penta ende Einstein gerechnet.
 
Meine Einsteine sind alle fertig und raus.

Grüße, Martin
 
Gerade bei TN-Grid gesehen:

Nutzer des Tages​

Benutzerprofil
Profile Sabroe_SMC
06-turquoise.png

Tach auch. Seit Ende 2006 mache ich bei diesem Boinc-Dingens mit. Beruflich hab ich nix mit Computern zu tun, bin da eher handwerklich unterwegs. Seit...

Meine Gammelwu bei Primgrid ist weg noch 63 bei Einstein.
 
"Rosettiert" hier eigentlich noch jemand?

Falls ja, habt ihr auch Probleme mit den python vbox- WUs. Der Ripper hat 8 - 10 Stück am Laufen, die inzwischen über 1 Tag laufen. Ich hadere noch mit mir, das abzubrechen...
 
Ich rosettiere auch, bis jetzt fast ohne Fehler. Von diesen python-vbox scheine ich noch keine berechnet zu haben. Wie sieht die Aufgabe dazu aus, kannst einen Link dahin senden?
 
Hatte auch noch rosettet, aber bisher keine Fehler gehabt bzw. mitbekommen. Dafür hab ich wohl grad minecraft@home geschrotet. War eh unnütz*elch*
 
Ok, erfolgreich fertige dieser Art habe ich auch, aber nicht mit so radikalen Laufzeiten. Bei mir eher 8000 - 16000 Sek! Daher die Ungeduld über 1d 12 h:)
 
Ich bade noch den Fehler (?) des BoincManagers aus, dass bei Puffer = 0 unendlich viele WUs gezogen werden.
In meiner Erinnerung war 0 noch mit "für jeden Kern eine WU" verknüpft. Aber in der Praxis hat sich der BM so viel gezogen, wie in der deadline zu schaffen wäre.
 
Ich bade noch den Fehler (?) des BoincManagers aus, dass bei Puffer = 0 unendlich viele WUs gezogen werden.
In meiner Erinnerung war 0 noch mit "für jeden Kern eine WU" verknüpft. Aber in der Praxis hat sich der BM so viel gezogen, wie in der deadline zu schaffen wäre.
Ich habe heute per app_config die rosetta_python WUs auf 2 - 3 parallel auszuführende beschränkt. Änderung der app_config eingelesen (und sonst nix geändert) und auf einmal wurde der Rechner mit 900 8h WUs überschwemmt. Das reicht für 10 Tage, obwohl die Deadline 3 Tage beträgt und der WU Vorrat im BM auf 0,3 Tage eingestellt ist (in Erwartung eines CPU-Sprints ab morgen). Der eine Rechner, den ich nicht angefasst habe, der hält schön sein WU-Limit.

Soviel kann ich mich gar nicht am Kopf kratzen...
 
kennt ihr eine Möglichkeit in der app_config verschiedenen GPUs eine unterschiedliche Anzahl an gleichzeitig laufenden WUs festzulegen?
 
Irgendwo im WCG Forum zu Beta oder OpenPandemics hatte dazu jemand ein Beispiel gepostet. Müsste April/Mai gewesen sein.

Ich hatte das für mich zu dem Zeitpunkt schon über 2 Instanzen gelöst. Daher hatte ich es nicht ausprobiert oder gespeichert.
 
Ich habe leider nichts gefunden.
Dann muss es erstmal so gehen denn bei meinem kleinen DP Cruncher habe ich das Problem dass der Treiber bei der IGP im Multi WU Betrieb hängen bleibt, zurückgesetzt wird, dabei eine der beiden WUs geschrottet wird und die ander hängen bleibt. Die HD7970 interessiert das wiederum herzlich wenig und knuspert fleissig weiter an den Milkyway WUs.
Da die IGP mit einer WU nicht ausgelastet wird takten die CPU Kerne nicht mehr runter und die WUs auf der HD7970 laufen flotter weil sie mehr CPU Power abbekommen.
Meine Überlegung war deshalb der IGP nur eine WU zuzuordnen und der HD7970 gleich 3 Stück zu verpassen um die Credit Ausbeute zu maximieren.
Im Moment bin ich eher ungewollt bei einer WU auf der IGP weil die zweite beim letzten Treiber Reset wieder hängen geblieben ist. Mit pausieren und wieder laufen lassen wird sie dann idR. normal beendet
 
Die 7970 verträgt auch 4 WUs parallel - da hab' ich bei mir die größte Ausbeute...
 
Bei mir bekommt jede GPU WU ihren eigenen Kern, erst recht wenn es um die Bulldozer Architektur geht und die APU hat... *Trommelwirbel* ....4 Stück. ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten