Formula Boinc 2022

Im einfachsten Fall mal die erlaubte CPU-Nutzung im Boinc Manager auf 99% stellen und schauen, ob es hilft. Dann wird immer ein Thread freigelassen.
Oder zähl mal durch, wie viele CPU-Threads mit anderen Projekten belegt sind. Wenn z.B. auf dem 8-Kerner 16x SiDock läuft und die eine MLC auf der GPU, dann wäre das schlecht.
 
Wenn keine weiteren Projekte auf CPU laufen, musst duc auch nichts weiter umstellen, dann nimmt sich die App schon die benötigte CPU-Leistung.
 
Oder man legt eine Datei an im Ordner(Ubuntu/Mint) /var/lib/boinc-client/projects/www.mlcathome.org_mlcathome
mit dem Namen app_config.xml

<app_config>
<app>
<name>mlds-gpu</name>
<gpu_versions>
<gpu_usage>1.00</gpu_usage>
<cpu_usage>1.00</cpu_usage>
</gpu_versions>
</app>
</app_config>
 
Jo. Es führen halt viele Wege nach Rom - und dieser da funktioniert auch dann noch gut, wenn man ein anderes Projekt (z.B. SiDock oder WCG) auf CPU laufen lassen will.
 
Oder man legt eine Datei an im Ordner(Ubuntu/Mint) /var/lib/boinc-client/projects/www.mlcathome.org_mlcathome
mit dem Namen app_config.xml
Erstmal vielen Dank für die ganzen Tipps.
Unter Linux funktioniert das hervorragend. Im Windowsrechner wird das leider auch nicht schneller berechnet.

Ich werde morgen auf einer externen Festplatte Linux Mint installieren und weiter testen. :rolleyes:
 
Ich habe auch gerade die Kombi am Laufen:
22x Sidock (begrenzt app_config) + 2x MLC (auf 2x GT1030)
 
SiDock hat ein einnehmendes Wesen, wenn man da nicht via app_config regulierend eingreift, wird sich gegriffen was da ist ;)
Doppelposting wurde automatisch zusammengeführt:

Da hat wohl jemand auch die Stats im Blick gehabt und bemerkt was läuft *buck*

Bildschirmfoto vom 2022-01-08 19-45-19.png
 
Inzwischen habe ich bei MLC auch 3 "Bestätigungsfehler".
Ich wüsste gern, wie die Gültigkeit ermittelt wird. Es wird ja als Quorum1 verschickt. Und bei den Ungültigen wurde die WU nur ein weiteres Mal verschickt. Also das klassische "wenn 2 PCs was rechnen und zum selben Ergebnis kommen, wirds stimmen" ist da nicht im Gange, sondern die WU wird direkt als ungültig markiert und 1x neu rausgeschickt.
 
Ich werde morgen auf einer externen Festplatte Linux Mint installieren und weiter testen.
Mint ist installiert und jetzt rechnet die GPU (1660S) ~44 Min. Die 1650S ~46 Min.
Was ich interessant finde... Anscheinend ist unter Windows irgendwas vermurkst... :]
 
Zuletzt bearbeitet:
Testweise 1660S unter Win: 100 Min und erst 49% mit CUDA102. So nicht! *nono*
Doppelposting wurde automatisch zusammengeführt:

Hab einige Ergebnisse vom Team durchgesehen und die Linux WUs geben scheinbar nur 260cr, die Windows ganze 4160. Da relativiert sich das ganze.
 
Zuletzt bearbeitet:
Wenn das so ist, habe ich womöglich zu früh gestoppt. Ich hatte zwei Wuzen mit je 4160, eine davon mit LZ 6,175 s,
die andere mit 14,011 s. Da haben mich die Laufzeiten derartig erschreckt, dass ich aufgegeben habe.
Ausserdem will das Projekt nicht beide Karten (2x GT1030) arbeiten lassen. Eintrag useallgpu in der cc_config ist auf 1 und beide Karten werden angezeigt. Weiß der Geier.
 
die Linux WUs geben scheinbar nur 260cr, die Windows ganze 4160
Die 260er müssten CPU-WUs sein. Für die Graka-WUs gibt es auch unter Linux 4160 Credits.
Ich lassen jetzt 2 parallel laufen auf meiner 1660 und komme auf ca. 1h 40min.
 
Das kommt davon, wenn man ohne Brille GPU und GNU nicht auseinander halten kann.

202 Min und dann Fehler. Nönö.
 
MLC-Update Race to Place 1:
Bildschirmfoto vom 2022-01-10 14-28-04.png
Bildschirmfoto vom 2022-01-10 14-34-46.png
Sieht gut aus *great*
*attacke**attacke**attacke*
 
Hab jetzt Mint 20.3 auf einer ext. Festplatte installiert. BOINC Manger, Client und CUDA sind installiert. NV Treiber ist 470 (mit dem 495er kann ich mich nicht einloggen. Es kommt die Passwortabfrage, der Bildschirm wird nach Eingabe kurz schwarz und dann lande ich wieder bei der Passwortabfrage). Die 3060 Ti braucht geschlagene 3444 Sek (~57 Min) und endet dann im Bestätigungsfehler. Eigentlich sollte die doch in gut der halben Zeit fertig werden. Haben die WUs (Batches) so unterschiedliche Laufzeiten? *kopfkratz
Muss ich evtl. noch was installieren oder ein Zauberwort sagen? Nutze Linux sonst nur in der VM und is ja nüscht mit GPU. *noahnung*
 
Die 3060 Ti braucht geschlagene 3444 Sek (~57 Min) und endet dann im Bestätigungsfehler.
Scheint normal zu sein bei den 30er NV.
Den Bestätigungsfehler hatten auch schon zwei andere vor dir. WU defekt? ???

Welchen Boinc Manager hast du installiert? Den ohne, was besser wäre, oder den mit CUDA Unterstützung?
 
Erst boinc-client und dann noch boinc-client-nvidia-cuda hinterher.
Da scheinen so viele WUs kaputt zu sein, da mag ich aktuell gar nicht dran rechnen.
 
Seit die FB-Seite komplett neu gestaltet wurde, kann ich gar nicht auf den Teamnamen klicken und so eine Übersicht über alle Marathons anschauen. Ist das nun woanders zu finden oder wurde das ersatzlos gestrichen?
 
Seit die FB-Seite komplett neu gestaltet wurde, kann ich gar nicht auf den Teamnamen klicken und so eine Übersicht über alle Marathons anschauen. Ist das nun woanders zu finden oder wurde das ersatzlos gestrichen?
Klick auf P3D und dann auf eins der Projekte dann kommt links die Übersicht.
 
Erst boinc-client und dann noch boinc-client-nvidia-cuda hinterher.
Da scheinen so viele WUs kaputt zu sein, da mag ich aktuell gar nicht dran rechnen.
Nee, komplett falsch. Nur in der Anwendungsverwaltung das Programm installieren, was Boinc heißt. Der Boinc-Manager und der Boinc-Client werden automatisch mit installiert.

Die Treiber für CUDA und OpenCL holt er sich von den NVidia Treibern.
 
Ah, auf der Startseite sind die teamnamen auch anklickbar.
Ich hatte mir als Lesezeichen nur die Marathonübersicht abgespeichert.
 
Erst boinc-client und dann noch boinc-client-nvidia-cuda hinterher.
Da scheinen so viele WUs kaputt zu sein, da mag ich aktuell gar nicht dran rechnen.
Nee, komplett falsch. Nur in der Anwendungsverwaltung das Programm installieren, was Boinc heißt. Der Boinc-Manager und der Boinc-Client werden automatisch mit installiert.

Die Treiber für CUDA und OpenCL holt er sich von den NVidia Treibern.

Für Seti hat's damals so funktioniert. :P
Muss erst wieder Lust sammeln mich damit zu beschäftigen.
 
So komplett falsch kann es nicht sein, ich habe es zumindest bei mir genau so gemacht vor ca. 1-2 Jahren.
Aber mit ner Python habe ich noch nicht gerungen. Muss ich wohl mal probieren.

Edit: jetzt geht wohl das Sidock-Bunkern los, ein Rechner war leer gelaufen. Da hatte aber auch der trottelige Boinc-Manager schuld. Download hing fest, also Kopf in den Sand und hoffen, dass es besser wird statt es regelmäßig neu zu probieren.
 
Zuletzt bearbeitet:
Zurück
Oben Unten