GPUGRID (Ex-PS3GRID)

@koschi
da habe ich wohl einfach immer nur Glück gehabt das die ganzen Kurzläufer bei mir angeschwemmt wurden.
Die Pythons sind beim Projekt deaktiviert.
Kurzläufer hatte ich bisher noch garnicht, nur die fehlerhaften ohne Credit :-/
 
Einfach weitermachen. Ich hab auch mehr kaputt als heile:
Mannoman, der zieht aber ordentlich was durch bevor er wieder einen Durchläufer findet.

Bei mir schaut die stderr Ausgabe so aus

Stderr Ausgabe​

<core_client_version>7.20.5</core_client_version>
<![CDATA[
<message>
process exited with code 195 (0xc3, -61)</message>
<stderr_txt>
17:33:19 (59648): wrapper (7.7.26016): starting
17:33:59 (59648): wrapper (7.7.26016): starting
17:33:59 (59648): wrapper: running bin/python (bin/conda-unpack)
17:34:02 (59648): bin/python exited; CPU time 0.315007
17:34:02 (59648): wrapper: running bin/tar (xjvf input.tar.bz2)
17:34:10 (59648): bin/tar exited; CPU time 1.179187
17:34:10 (59648): wrapper: running bin/bash (run.sh)
+ echo 'Setup environment'
+ source bin/activate
++ _conda_pack_activate
++ local _CONDA_SHELL_FLAVOR
++ '[' -n x ']'
++ _CONDA_SHELL_FLAVOR=bash
++ local script_dir
++ case "$_CONDA_SHELL_FLAVOR" in
+++ dirname bin/activate
++ script_dir=bin
+++ cd bin
+++ pwd
++ local full_path_script_dir=/var/lib/boinc-client/slots/5/bin
+++ dirname /var/lib/boinc-client/slots/5/bin
++ local full_path_env=/var/lib/boinc-client/slots/5
+++ basename /var/lib/boinc-client/slots/5
++ local env_name=5
++ '[' -n '' ']'
++ export CONDA_PREFIX=/var/lib/boinc-client/slots/5
++ CONDA_PREFIX=/var/lib/boinc-client/slots/5
++ export _CONDA_PACK_OLD_PS1=
++ _CONDA_PACK_OLD_PS1=
++ PATH=/var/lib/boinc-client/slots/5/bin:/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/bin:/sbin:.
++ PS1='(5) '
++ case "$_CONDA_SHELL_FLAVOR" in
++ hash -r
++ local _script_dir=/var/lib/boinc-client/slots/5/etc/conda/activate.d
++ '[' -d /var/lib/boinc-client/slots/5/etc/conda/activate.d ']'
+++ ls -A /var/lib/boinc-client/slots/5/etc/conda/activate.d
++ '[' -n ocl-icd_activate.sh ']'
++ local _path
++ for _path in "$_script_dir"/*.sh
++ . /var/lib/boinc-client/slots/5/etc/conda/activate.d/ocl-icd_activate.sh
+++ conda_ocl_icd_activate
++++ ls /var/lib/boinc-client/slots/5/etc/OpenCL/vendors/
+++ [[ -z ocl-icd-system ]]
+ export PATH=/var/lib/boinc-client/slots/5:/var/lib/boinc-client/slots/5/bin:/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/bin:/sbin:.
+ PATH=/var/lib/boinc-client/slots/5:/var/lib/boinc-client/slots/5/bin:/usr/local/bin:/usr/local/sbin:/usr/bin:/usr/sbin:/bin:/sbin:.
+ echo 'Create a temporary directory'
+ export TMP=/var/lib/boinc-client/slots/5/tmp
+ TMP=/var/lib/boinc-client/slots/5/tmp
+ mkdir -p /var/lib/boinc-client/slots/5/tmp
+ echo 'Install AToM'
+ REPO_URL=git+https://github.com/raimis/AToM-OpenMM.git@d7931b9a6217232d481731f7589d64b100a514ac
+ python -m pip install git+https://github.com/raimis/AToM-OpenMM.git@d7931b9a6217232d481731f7589d64b100a514ac
Running command git clone --filter=blob:none --quiet https://github.com/raimis/AToM-OpenMM.git /var/lib/boinc-client/slots/5/tmp/pip-req-build-lf5peszl
Running command git rev-parse -q --verify 'sha^d7931b9a6217232d481731f7589d64b100a514ac'
Running command git fetch -q https://github.com/raimis/AToM-OpenMM.git d7931b9a6217232d481731f7589d64b100a514ac
Running command git checkout -q d7931b9a6217232d481731f7589d64b100a514ac
error: subprocess-exited-with-error

&#195;&#151; python setup.py egg_info did not run successfully.
&#226;&#148;&#130; exit code: -4
&#226;&#149;&#176;&#226;&#148;&#128;> [0 lines of output]
[end of output]

note: This error originates from a subprocess, and is likely not a problem with pip.
error: metadata-generation-failed

&#195;&#151; Encountered error while generating package metadata.
&#226;&#149;&#176;&#226;&#148;&#128;> See above for output.

note: This is an issue with the package mentioned above, not pip.
hint: See above for details.
17:34:23 (59648): bin/bash exited; CPU time 2.964532
17:34:23 (59648): app exit status: 0x1
17:34:23 (59648): called boinc_finish(195)

</stderr_txt>
]]>
 
Wie sind eigentlich eure Laufzeiten so?
Auf der 3080 mit 2 gleichzeitig sind es relativ konstant um die 6 Stunden.
 
3-5h auf einer 3070 bei einer WU. Mehr traue ich mich noch nicht. Werde nach dem NFS Race mal zwei ausprobieren.
 
6-8h, aber es laufen gelegentlich zu den 2 x ATMbeta auch noch mal paar OPNG mit in anderen Instanzen. Ohne OPNG also eher am unteren Limit.
 
Die RTX3050@100W braucht 5,5 - 6 h mit einer WU.
Die GTX1650S@70W braucht 7,5 - 8h.
 
Bei der RTX3070@125W mit 1 WU habe ich aktuell zwischen 14.000 und 18.000s für 1,25Mio credits
In Stunden müssten das so 4-5 sein.
 
Die GTX1650S@70W braucht 7,5 - 8h.
Da muss ich doch gleich die 1650Ti anwerfen. Würde 10-12 Std. schätzen, dann würden ja immer noch zwei WUs innerhalb des 24-Stunden Bonuszeitraumes fertig.
 
Eben mal den Phenom2 mit GTX1070 ne Weile auf GPUGrid laufen lassen. Bei über 50 zerstörten Wus hab ich dann wieder zu SRBase rübergeswitcht. Irgendwas ist da faul. Ist doch eigentlich genauso eingerichtet wie die RTX3070 Maschinen hier.
 
Mal sehen wie lange die GT1030 für eine atm braucht.
Also die 100% hat die kleine GPU längst geschafft. Morgen früh müsste die dann hoffentlich fertig sein.
Hab auch noch eine 1030 gefunden :D
Als ich nach 20 Min geguckt habe, war sie schon bei 100%. Hoffe zum Mittag ist sie fertig.
Doppelposting wurde automatisch zusammengeführt:

Die GTX1650S@70W braucht 7,5 - 8h.
Da muss ich doch gleich die 1650Ti anwerfen. Würde 10-12 Std. schätzen, dann würden ja immer noch zwei WUs innerhalb des 24-Stunden Bonuszeitraumes fertig.
Na wenn sich das mal nicht sofort gelohnt hat *elch2* *party2* *clap*
 
Zuletzt bearbeitet:
Hm, meine ist immer noch nicht fertig.
Wenn ich das Logfile richtig lese, dann ist sie jetzt bei run 129 von 141, gestartet bei 71 mit +70.
Vielleicht habe ich Glück und sie wird noch fertig, bevor ich den Rechner ausschalten muss. Die 24h werden wohl auf jeden Fall überschritten.
Doppelposting wurde automatisch zusammengeführt:

Selbst wenn die WU noch fertig wird - der Server hat keinen Platz mehr. :(
So 16 Apr 2023 13:39:54 CEST | GPUGRID | [error] Error reported by file upload server: Server is out of disk space
 
Zuletzt bearbeitet:
Upload geht wieder.
 
Mal sehen, ob die WUs in einer Woche auch noch angenommen werden.
 
Die defekten WUs melden aber auch ganz schön was zurück. Gerade zufällig 3x 85-110MB beobachtet.
Doppelposting wurde automatisch zusammengeführt:

Und RTX 4000 scheinen nun auch endlich zu laufen *clap*
 
Zuletzt bearbeitet:
Heute habe ich endlich mal gigantische 1000kBit upload.
Nachteil: Die WUs sind heute früh abgelaufen wegen der vollen Disk und die Betreiber haben mein Gesuch um Verlängerung der Laufzeit wohl abgelehnt.
Egal, ich sch... die Leitung und den Server trotzdem damit voll. Soll'n se doch damit machen, was sie wollen.
 
Darauf ein Mettbrötchen! *buck*
 
Sie scheinen bei den Betas Fortschritte zu machen. Aktuell laufen etwas mehr als 70% der WUs bis zum Ende. Vorher lag die Erfolgsquote nur bei 20-25%.
 
Ja, geht mördermäßig ab! Probiere gerade erstmals 2 Wus parallel.
 
Bildschirmfoto zu 2023-04-28 21-40-14.png

Die voraussichtliche Laufzeit harmoniert nicht besonders mit der Deadline *chatt*
 
Ein neuer Erguss von ca. 400 WUs erwartet die tapferen Helden von P3D*baeh*
 
Gaaaaaanz schlechter Zeitpunkt! :D
 
Zurück
Oben Unten