Formula Boinc 2022

Hier rechnen nun 40/40 Threads native Rosettas. Mit update.bat genügend native WUs eingesammelt und dann in den Rosetta-Einstellungen die WU-Dauer auf 12h gestellt.
1649369559190.png
Dann könnt ihr auf wenigen WUs rumkauen lassen. Bei dem Projekt wird die Dauer der Berechnung gewertet, nicht die Anzahl der berechneten WUs.
Oder stellt es auf eine noch längere Dauer und verkürzt diese, wenn das Sprintende näher rückt. Die Einstellung der Dauer dürfte sofort wirken bei den aktuell berechneten WUs, wenn ich mich richtig erinnere.

Noch was zu den Zahlen bei nativen Rosetta-WUs: 350MB RAM/WU, Projektordner ist 1,6GB groß bei 24 Threads.
DRAM-Bandbreite ist auch normal: 1649369969038.png
 
Ich bin jetzt wirklich kurz davor dieses Projekt zu entfernen.
Jetzt habe ich ein Diskspace Problem bei 800G freien Diskspace. Und Ich bekomme nicht gesagt, wo es denn fehlen sollte.

Do 07 Apr 2022 21:21:13 CEST | Rosetta@home | Nachricht vom Server: rosetta python projects needs 19073.49MB more disk space. You currently have 0.00 MB available and it needs 19073.49 MB.

Sowas habe ich bei mir auch, da hört aber der Spaß auf. Ich lasse das rechnen, was geht, versuche aber nix zu verdrehen, damit es läuft.
Na gut, auf die ubuntuP3DN-VM musste ich noch virtual-box installieren, aber das reicht auch :-)
 
Ich habe jetzt einige von den vbox tasks als zombies im Status "unmanageable, restarting later" herumliegen.
Aber die restarten nicht, wenn ich alle anderen anhalte. Mal sehen, ob es noch was wird.
Der andere Rechner hat genug normale tasks bekommen über Nacht, also werde ich das nun auch auf dem 3950X so machen. Das vbox-Zeug kann mich mal.
 
Man sollte das vbox Zeug auf jeden Fall mengenmäßig per app_config beschränken. Dem 3990X waren 32 WUs gleichzeitig wohl zuviel. Der BM hat heute Nacht die Verbindung zum Boinc Client verloren. Nach Neustart des Rechners und vom BM hat er 5 Minuten gebraucht, um den Client zu verbinden.

Engpass ist wohl die Festplatte, die ist nämlich auf einmal zu 90 % gefüllt (genau die 90 % Obergrenze, die ich vorgegeben hatte).
 
Kann mir mal einer verraten wo sich "The Scottish Boinc Team" versteckt hat? Auf der Rosetta Projektseite finde ich die nicht mehr oder ich bin blind.
Link
 
Ich habe jetzt einige von den vbox tasks als zombies im Status "unmanageable, restarting later" herumliegen.
...
Bei Cosmology bekommen diese WUs einen automatischen Timeout von 24 h. Das wird hier dann bestimmt genauso sein. Sie warten also auf den Ablauf der 24 h und nicht darauf, dass Du Ressourcen freigibst:)

Solange es WUs mit diesem Status gibt, werden mglw. keine neuen WUs gezogen (zumindest bei Cosmology ist das so).
 
Ich habe jetzt einige von den vbox tasks als zombies im Status "unmanageable, restarting later" herumliegen.
Aber die restarten nicht, wenn ich alle anderen anhalte. Mal sehen, ob es noch was wird.

Bei Cosmology bekommen diese WUs einen automatischen Timeout von 24 h. Das wird hier dann bestimmt genauso sein. Sie warten also auf den Ablauf der 24 h und nicht darauf, dass Du Ressourcen freigibst:)

Von Cosmo kenne ich das problem auch aber ich bin mir gerade nicht ganz sicher woran das lag, vermutlich an zu wenig RAM oder freigegebenen Plattenspeicher für alle VMs.
Auf meinem Carrizo Schleppi ist es übrigens ein Dauerproblem, da darf ich nur die Hälfte der Kerne freigeben damit es nicht auftritt.

Bei den VM WUs habe ich für mich festgestellt das man mit 8-10GB Plattenspeicher und 3-4 GB RAM pro WU rechnen sollte.
Doppelposting wurde automatisch zusammengeführt:

Wo ich schon dabei bin, mein letzter Berechnungsversuch bei meinem großen Ripper hat die SSD offenbar so zugemüllt dass die Linux Installation nicht mehr starten will.
Mal schauen was passiert wenn ich die 512GB Platte gegen ein 2 TB Modell tausche.

Angesichts der enormen Schreiblast die offenbar vor allem nach dem Runterladen/beim Start der WU und beim Beenden entsteht und der vielen parallel laufenden WUs bin ich aber am überlegen ob bei der Kiste ein PCIe 4.0 Modell (Samsung 980 PRO) sinnvoll wäre oder ob ich im zuge dessen auf eine 2,5" SATA SSD (Crucial MX500) für den Wechselrahmen wechsel. Beide könnte ich kurzfristig im Laden bekommen, wobei die TBW sehr deutlich für das PCIe 4.0 Modell sprechen würde. *kopfkratz
 
Zuletzt bearbeitet:
@JagDoc , danke, Wenn ich aber nach Punktedurchschnitt sortiere, sollten die dann ~ P15 sein, da fehlen die aber. Da stimmt dort was nicht und meine Stats dann auch nicht.
 
@JagDoc , danke, Wenn ich aber nach Punktedurchschnitt sortiere, sollten die dann ~ P15 sein, da fehlen die aber. Da stimmt dort was nicht und meine Stats dann auch nicht.
Jetzt sind sie auf P14 Punktedurchschnitt.
 
Sehr schade, ich habe mein Dickschiff einige Stunden laufen lassen.
Resultat: 1 WU in 4 Stunden bekommen und die ist nach 10Min mit Berechnungsfehler gestorben.
Was für ein besch*** Projekt! Das sieht mich in diesem Jahr nicht wieder
 
Ja, da sind immer wieder Batches dabei, die früher oder später abbrechen. Meist bekommt man anteilig dennoch Punkte gutgeschrieben. Und das Problem haben ja alle im Sprint.
 
Ich hab' den Pinguin auf dem Cezanne eine 1-2h nach WUs betteln lassen (kein vBox - den Krampf tu ich mir nicht mehr an!) und nix gekriegt - dann halt ohne mich...
Oder muss man da am Linux was basteln, wie bei LHC? *kopfkratz
 
Hm - die Kiste nur deswegen ideln zu lassen widerstrebt mir - und andere Projekte zum "Auffüllen" mag ich mir aktuell gerade auch nicht antun (wird Zeit, dass WCG endlich wieder online kommt!)...
 
Ja, da sind immer wieder Batches dabei, die früher oder später abbrechen. Meist bekommt man anteilig dennoch Punkte gutgeschrieben. Und das Problem haben ja alle im Sprint.
Ja, aber es geht mir nicht um den Sprint.
Ich lasse keinen Rechner stundenlang nur so laufen, weil keine WUs kommen. Diese Projektwahl verstehe ich nicht.
Das macht für mich einfach keinen Sinn. Bin gespannt, ob yafu auch noch gewählt wird. Da kommt dann erst richtig Freude auf.
 
Ich bin erstmal dabei die Linux Installation auf die MX500 zu clonen, mal schauen wie es dann mit genügend Speicherplatz ausschaut und wieviel Platz BOINC belegt wenn so viele WUs wie möglich parallel laufen können.
 
Ja, da sind immer wieder Batches dabei, die früher oder später abbrechen. Meist bekommt man anteilig dennoch Punkte gutgeschrieben. Und das Problem haben ja alle im Sprint.
Das wird das Marathon-Projekt im Penta. ;D *rofl*
 
SSD ist getauscht und die Neue füllt sich.......
Die 5 VM WUs 5700G haben seit ca. 5 Stunden für ca. 190GB Schreiblast gesorgt und die 2TB MX500 gibbet derzeit im MM für 178€. ^^
Doppelposting wurde automatisch zusammengeführt:

Die Platte ist groß genug (Rosetta belegt ca. 700 GB) aber nun spackt er mit demVM Hypervisor rum. *admin*
 
Zuletzt bearbeitet:
SSD-Killer also. Danke, ohne mich.
 
Cosmo steigt mit dem gleiche vbox Fehler aus aber eine neue VM läßt sich in vbox erstellen.
Also scheint irgendwie die Verbindung zwischen BOINC und vbox gestört zu sein. *kopfkratz
 
Cosmo steigt mit dem gleiche vbox Fehler aus aber eine neue VM läßt sich in vbox erstellen.
Also scheint irgendwie die Verbindung zwischen BOINC und vbox gestört zu sein. *kopfkratz
Hast du eine von den vorab Versionen von boinc am start? 7.18...
Ich habe mal im Forum von LHC gelesen, das da die Verbindung gerne nicht klappt!

sowas mal unter Linux included?
sudo add-apt-repository ppa:costamagnagianfranco/boinc
Dann hast du solch eine Version.

Rückgängig geht (unter Mint) mit:
sudo apt-get install ppa-purge
sudo ppa-purge ppa:costamagnagianfranco/boinc
sudo apt remove boinc-client
sudo apt update
sudo apt install boinc-client oder boinc (jenachdem ob du das GUI hast oder nicht)

Konfig und alle WUs bleiben erhalten.
Doppelposting wurde automatisch zusammengeführt:

SSD-Killer also. Danke, ohne mich.
Nur die Python WUs sind so disklastig
 
Nö ist die ganz normale Version, ich glaube 7.16.6.
Ich habe jetzt nochmal VBox neu installiert und zwischendurch neu gestartet um zu schauen ob der BM das mitbekommt (hat er), hat leider nicht geholfen.
Vielleicht doch ein Problem vom BM selbst?
 
Werden die VBox Langläufer (>22 Stunden) auch mal fertig? Oder sollte man die abbrechen?
 
Zurück
Oben Unten