13. Pentathlon 2022: Hindernislauf ex Marathon (Universe@Home)

Das Einzige, was hier abnimmt, sind meine "in Bearbeitung". Die Pendings wachsen schon wieder stetig an.
 
3 h um manuell angestoßen ca. 40 WUs auf den Server zu bekommen.
Geht ja eigentlich recht zügig.
Die restlichen ca. 1100 Stück schaffe ich bestimmt bis Penta-Ende *buck*
 
Wahrlich ein Hindernislauf dieser Marathon - aber das kann SG so nicht gemeint haben, denn eigentlich sollte das ja Spaß machen ;-)
Ich habe auch noch so eine Instanz, die seit gestern 1000WUs loswerden will, aktuell stehe ich bei 286 noch zum hochladen...
 
So lange wie der Server-Umzug bei WCG nun schon dauert, habe ich die Befürchtung, dass da am Ende auch eher eine Sparversion zum Einsatz kommt und nicht mehr die geballte IBM-Power.
 
Ich meine gelesen zu haben, dass IBM denen die Server/Hardware gelassen hat.
Doppelposting wurde automatisch zusammengeführt:

Ich wollte Euch ein wenig neidisch machen *elch2*
 

Anhänge

  • Leeres_Übertragungsfenster.png
    Leeres_Übertragungsfenster.png
    13,8 KB · Aufrufe: 24
Zuletzt bearbeitet:
Mein letztes System mit Verstopfung hat nun Durchfall... intressanterweise hat ein Neustarteinlauf sehr befreiend gewirkt :D
 
Also aktuell konnte ich einfach hochladen ohne Probleme ... wenn also jemand aktuell noch Probleme hat ^^
Jetzt wäre ein guter Zeitpunkt es zu probieren :D
 
Hier geht das Hochladen so lala. Aber das Herunterladen von Neuen geht eigentlich gar nicht. Da habe ich bei "Übertragung" einen Scrollbalken dran.
 
20 Threads in der Sofaritze gefunden.
 
Einige Instanzen können mal eben hunderte WUs hoch- und runterladen, andere bekommen nicht mal den Hauch einer WU zu sehen. Schon merkwürdig.
 
Das Herunterladen geht hier gar nicht mehr. Die hingen alle fest, also habe ich alle abgebrochen.
Danach ging der Upload wenigsten wieder. Jetzt macht der PC noch einen Neustart und dann schauen wir mal.
Doppelposting wurde automatisch zusammengeführt:

Hat nicht geholfen. BM-Einstellungen 1+0,25 Tage, trotzdem versucht der, riesige Mengen an Wuzen herunterzuladen. Zur Ausführung bereit habe ich reichlich da und trotzdem versucht der BM, neue zu kriegen und blockiert mir alles.
Das Verhalten ist mir unbegreiflich.

Habe jetzt auf "no new work" gestellt. Mal sehen, wann er leer ist.
 
Es war gerade vergleichsweise einfach, 2 x 1000 WUs zu bekommen. Was dann ätzend war, war abzuwarten und immer wieder anzupieken, dass die letzten 20 WU auch runtergeladen werden. Ich hatte mich jetzt lange mit Speerwerfen beschäftigt und steige hier mal wieder mit ein.
 
Nicht verwunderlich, nachdem die Oma heute Nacht ihre 40 Millionen Liter Scotch ausgeschüttet hat, kommt von denen praktisch "nix"... ;)
 
Ich habe wieder mal Stau
 
Alles unverändert. Ohne händische Unterstützung geht nichts, einzig die Downloads bleiben jetzt nicht mehr hängen, weil ich keine solchen mehr habe. *buck*
 
Ich konnte jetzt endlich den letzten PC (TR1950X) wieder mit WUs versorgen. Auf geht's!

Gruß
Ritschie
 
Ich meine, so ein Upload sind ja nur ein paar Bytes, aber wenn ich bedenke, wie oft so ein Dateichen 100% zeigt, dann muss ich schon vermuten, dass ein paar Megabytes zusammenkommen, bevor das Ding als hochgeladen gilt.
*noahnung* *suspect*
 
In der Shoutbox hat neulich jemand erklärt, dass jede WU aus 6 Dateien besteht.
Solange nicht bei allen 100 % steht, ist die WU nicht übertragen.
 
Ich meine, so ein Upload sind ja nur ein paar Bytes, aber wenn ich bedenke, wie oft so ein Dateichen 100% zeigt, dann muss ich schon vermuten, dass ein paar Megabytes zusammenkommen, bevor das Ding als hochgeladen gilt.
*noahnung* *suspect*
Die werden hochgeladen, aber wohl nicht angenommen. Dann fliegen sie wieder raus und müssen nochmal hochgeladen werden. Die Datenmenge an sich ist lächerlich aber der Engpass wird wohl sein, die schon hingestellten Pakete richtig einzuräumen. Das mit der Shoutbox stimmt auch: eine fertige WU besteht aus 5 bis 6 einzelnen Dateien. Erst wenn alle hochgeladen sind, ist das Ergebnis meldebereit.

Leider wird der Server gegrillt, aber da kommt wohl auch eine Last, die er so noch nicht erlebt hat. Die Verungleichmäßigung der Last durch den Blödsinn mit den Hindernissen hat es bestimmt nicht besser gemacht. Es bleibt zu vermuten, dass der Server mit gleichmäßiger Last besser klargekommen wäre. Ich hoffe, dass die Organisatoren ihre Schlüsse ziehen. Es reicht ja bei 4 von 5 Disziplinen die Bunkerei in den Vordergrund zu stellen.
 
Krzysztof hat am 12.5. im Forum geschrieben was der Server zu bewältigen hat:
Code:
In last 24h server get:
Success finished tasks: 1'171'604
Tasks with computation error (and others errors) 17'335
Tasks where host didn't contact with server 2'520
Validation errors 67
Orphaned tasks 2160

I didn't expect that this numbers are even possible on our server.
Now we have some problems with disks subsystem (even SSD's are bit to slow to manage this quantity of files).

Und gestern was zum Server:
Code:
Universe@Home are 3 servers:
1. Main server
2. Database server
3. Storage server
On main server SSD's are SATA, there is no NVMe ports at all as this is about 7 years old Xeon 1230 machine.
Database server is on NVMe machine and it must be quick, as it doing loads more than only project database serving. It do most work with computation results received from volunteers.
Storage server is already used to storage all results and is used also to manipulate results with other software where results files have to be sorted, analysed etc.

This is what our budged was enough to buy and usually it is quite enough to do all tasks smoothly.

BOINC engine not allow to zip all files on client side together itself. Obviously we can send to volunteers another executable file which will pack result files together but... This doesn't have any sense as the files must be unpacked back on server which will cause in more disk operations and overall server load (but single result files are zipped on client side).

Anyway, we will probably upgrade systems with new grant in about 2 years (obviously if we get it - but with current project results I strongly believe that we get it).
 
Das Problem scheint projektübergreifend überall dasselbe zu sein.
Die Server und ihre Anbindungen haben sich nicht mal in etwa so entwickelt, wie die Rechenkapazitäten der User.
Und wenn denn alle was wollen - rummmmms, geht gar nichts mehr.
 
Zurück
Oben Unten