Neue WUs bei LHC@Home!

Schade, natürlich allein der Gedanke daran ist erwärmend, aber beim kommenden Pentathlon leider nicht in Punkte umsetzbar.
Dann ebend beim Formula Boinc Marathon, und/oder Formula Boinc Sprint. ;D
Super duper, habe gerade mal beim Marathon geguckt. Da können wir bis zum Jahresende ja noch richtig was reißen. *great*
 
Zuletzt bearbeitet:
Oh, ja scheint ein Edelmetall ist drin!

https://lhcathome.cern.ch/lhcathome/server_status.php
Schon wieder nur noch 17 Sixtrack unsent, ist wohl wieder durch...
Meine N2 hätten damit einen RAC von 2600-2900 erreicht, also ca. 10% des R9 mit ATLAS. Das kann sich wohl sehen lassen.
 
So, alle Dickpötte stehen unter Dampf, ATLAS native mit jeweils eigenem Squid Proxy.

Irgendwie kommen auch immer mal wieder ein paar Sixtrack nach.
 
Die vorangegangenen ca. 20 Post hören sich so an, als wäre das mit einem Win10-Rechner etwas aufwendiger, effizient die LHC-WUs durchzukauen.

Ich habe zumindest Virtual Box installiert und HW Virtualizations ist angeblich auch aktiviert. Muss ich dann noch mehr tun, außer LHC als Projekt hinzuzufügen (möchte dass gerade nicht probieren, da sich der Rechner zu viele Rosetta WUs geholt hat, die erstmal weg müssen) ?
 
Nun unter Windows hast du nicht die Möglichkeit ATLAS oder Theory native zu rechnen, es bleibt daher nur VirtualBox. Ist die aber einmal lauffähig, ist das an sich stressfrei, die WUs können auch pausiert werden. Auch unter Windows hast du die Möglichkeit einen Cache zu nutzen. Falls du mehrere Systeme laufen lassen willst kann das Sinn machen. Jede ATLAS WU zieht zum Start tausende kleine Files vom CERN, je nach Latenz und Bandbreite dauert der WU Start daher gut mal 10 Minuten bis die eigentliche multithreaded Berechnung dann loslegt. Ein Cache kann den Großteil dieser kleinen Dateien abfangen, WUs starten schneller, es entsteht weniger Leerlauf.

Code:
Squid Object Cache: Version 4.10
Build Info: Ubuntu linux
Service Name: squid
Start Time:    Sat, 28 Nov 2020 19:04:29 GMT
Current Time:    Wed, 02 Dec 2020 10:22:31 GMT
Connection information for squid:
    Number of clients accessing cache:    2
    Number of HTTP requests received:    411266
    Number of ICP messages received:    0
    Number of ICP messages sent:    0
    Number of queued ICP replies:    0
    Number of HTCP messages received:    0
    Number of HTCP messages sent:    0
    Request failure ratio:     0.00
    Average HTTP requests per minute since start:    78.5
    Average ICP messages per minute since start:    0.0
    Select loop called: 49509696 times, 6.348 ms avg
Cache information for squid:
    Hits as % of all requests:    5min: 0.0%, 60min: 97.9%
    Hits as % of bytes sent:    5min: 6.7%, 60min: 2.7%
    Memory hits as % of hit requests:    5min: 0.0%, 60min: 84.6%
    Disk hits as % of hit requests:    5min: 0.0%, 60min: 2.3%
    Storage Swap size:    633460 KB
    Storage Swap capacity:     0.3% used, 99.7% free
    Storage Mem size:    6580 KB
    Storage Mem capacity:     2.5% used, 97.5% free
    Mean Object Size:    1290.14 KB
    Requests given to unlinkd:    0

Mein seit 4 Tagen laufender Squid hat von BOINC und den WUs über 400k http Anfragen erhalten (im Schnitt 80 pro Minute), konnte davon knapp 98% aus dem lokalen Cache bedienen.
 
Stand bei Sixtrack bleibt ca. gleich - 196k verfügbar
Im FB-Marathon haben wir bei LHC jetzt 4 Punkte :D
 
Leider muß ich mitteilen, dass der Häuptling Ärger mit dem Stammesrat bekommen hat,
weil die Geschichte jeden Tag für >0,5 TB Traffic sorgt. Darum stehen die Rechner bis auf Weiteres.
 
Oh ja, mit mehreren 100 MB pro WU sind die Dinger riesig. :)
 
Wobei es präziser heißen muß, dass der permanente Datenaustausch zwischen dem Projektserver und den Hosts, für den Ärger sorgen.

Da geht soviel kleiner Mist hin und her, dass die Ping-Zeiten im Netzwerk von ansonsten1 ms, hochgehen auf bis zu 100 ms.
 
Oha, ja das hat es dann natürlich auch nochmal in sich. Sowas gabe ich garnicht auf dem Schirm. *chatt*
Bei mir rödelt er hin und wieder nebenher etwas vor sich hin aber zm Abend lasse ich ihn wieder leer laufen damit ich dann meine Ruhe habe. 8)
 
Hatte koschi heute Morgen schonmal hochgerechnet. Wäre die Alternative.
Aber ich will da erstmal ein bißchen Gras über die Sache wachsen lassen. :]
Um die Götter zu besänftigen, habe ich die Grafikkarten bei Einstein aktiviert.
 
Ich habe die Zeiten generell etwas eingeschränkt, in denen Datenaustausch betrieben werden darf, egal welches Projekt.
Tagsüber arbeite ich, da stört es die Skype-Kommunikation. Abends möchte mein Mitbewohner ab und zu mal zocken. Also im Grunde geht es nur nachts.
 
Holen wir uns in der Formula Boinc noch CNT ... und vielleicht sogar BOINC@Poland?

Der Rückstand ist nicht allzu groß. Ohne den p3d-cluster wird's aber wohl schwer.

Gruß
Ritschie
 
Ohne den Cluster nur zu schaffen, wenn ein Großteil von P3DN sich hinterklemmt.
 
Ich habe LHC eigentlich nur zusätzlich zu WCG erlaubt. Aber das Projekt hat sich alle 32 Threads komplett für die Sixtrack geschnappt und lässt WCG nicht einen einzigen Kern mehr.
 
Aktuell geht der SixTrack-Counter stetig zurück. Von gestern Nacht auf heute Vormittag von rund 80k auf 43k runter.

Wer also möglichst lange SixTrack rechnen will sollte das im Auge behalten und ggf. die Bunkereinstellungen erhöhen.

Gruß
Ritschie
 
Na dann nehm ich doch lieber mal was für die nächsten 5 Tage.
 
Danke für die Info! Hab auch noch zugeschlagen. Der Server hat noch 17k.
 
Noch 10000...
Obs wohl am Wochenende liegt oder ist der Sixtrackbatch wieder durch?
 
Aktuell bekomm ich nix mehr. Dabei sind doch noch 16 da aufm Server.
 
Ja da steht der schon +/- ein paar WUs für geraume Zeit. Kann man wohl davon ausgehen dass der Batch erstmal durch ist...
Doppelposting wurde automatisch zusammengeführt:

Ich hab noch 23 Sixtrack auf dem Hauptrechner, ausschließlich Resends.
 
Zuletzt bearbeitet:
TAAT wieder vorbei an uns in der Formula Boinc. Spielen die wieder Katz und Maus mit uns?! ?

Gruß
Ritschie
 
Zurück
Oben Unten