Neue WUs bei LHC@Home!

@Magic
Lass mal den Ritschie bei LHC.
Sonst hätte mein 3900x und V12 nicht komplett zu SiDock gehen können.
Wenn Du so willst vertreten wir uns gegenseitig ;-)
 
Achso, ein Glibber-Problem. ;)
 
Wegen dem SiDock-WU-Mangel habe ich gestern Abend LHC als Fallback aktiviert...
 
Ab morgen schalte ich LHC auf 50%, wenn meine SiDock Mio voll ist, wieder 100% LHC
 
Wir müssen unseren Rückspiegel im Auge behalten:
EDIT: In Bezug auf FB
LHC-Xtrem-Systems.png

Aktuell bin ich 50/50 LHC und MLC testweise dran.
Der avisierte Besuch vom General wird die Lage entspannen ;)
 
Zuletzt bearbeitet:
Weil ich gerade bei Auswertungen nach Koschi's Script bin:
(Mischung aus Sixtrack, nativen Atlas und nativen Theory)
V12:
Code:
Results fetched:                   745
Average duration:              25302.4
Average credit:                 232.52
Number of reported cores:          128
Per core per day:                  790
Per system per day:             101120

3900x Eco-Mode:
Code:
Results fetched:                   231
Average duration:              15182.0
Average credit:                 210.82
Number of reported cores:           24
Per core per day:                 1180
Per system per day:              28320
 
Weiß jemand was bei LHC los ist?
Alle meine Sixtrack WUs der letzten Tage wandern ins Pending, inzwischen 482. *motz*
 
Bei mir sind es auch schon 1441 im Pending.
Laut Serverstatus:
Workunits waiting for validation170940
 
Danke, hab das zum Anlass genommen mal wieder ATLAS zu machen, die validieren umgehend.
Die Laufzeiten der ATLAS WUs sind bei mir kräftig gestiegen, die Vergütung aber auch.

Laut meinem Skript:
Code:
Application:                      ATLAS Simulation
CPU:           AMD Ryzen 9 3900X 12-Core Processor
OS:                Linux Ubuntu Ubuntu 20.04.2 LTS
Results fetched:                                13
Average duration (s):                      53311.5
Average credit:                             973.43
Number of reported cores:                       24
Per core per day:                             1557
Per system per day:                          37368

Das sind WUs mit 4 threads, da passt die Berechnung des Skripts meiner Meinung nach nicht ganz. Eigentlich müsste die Laufzeit und nicht die CPU Zeit verwendet werden. Dummerweise lasse ich das Skript aber den höheren von beiden Werten nehmen, weiß nicht mehr warum, muss ich mal gucken. Über die Laufzeit gemittelt ist der Credit pro Tag dann leicht geringer.
 
Von Vorgestern bis Heute sind mir jeweils eine WU pro Tag gutgeschrieben worden...
 
Ich hatte gestern noch ein paar ATLAS WUs auf meinem Ripper gerechnet und scheinbar können die es so garnicht ab pausiert zu werden. *kopfkratz
 
Das hängt eventuell mit dem ständigen Datenverkehr des Rechners mit dem CERN-Server zusammen?
Bei mir mit Singularity und Squid habe ich das bisher nicht festgestellt.
 
Keine Ahnung, ich hatte gestern nur die Berechnung der schon laufenden WUs pausiert bis die restlichen WUs runtergeladen wurden. Nachdem ich die pausierten WUs wieder gestartet hatte wurden sie mit einem Berechnungsfehler abgebrochen.
 
Das hängt eventuell mit dem ständigen Datenverkehr des Rechners mit dem CERN-Server zusammen?
Bei mir mit Singularity und Squid habe ich das bisher nicht festgestellt.

würde ich auch sagen.
ich könnt die 15 mio. auch mal voll machen ^^
 
Hallo Leute,

ich bin heute von einem LHC-Mod, mit dem ich gerade "privat" gemailt hatte, angeschrieben worden mit folgender Thematik:

Bin heute Nachmittag über den Rechner deines Teamkollegen xxx gestolpert.
128 Cores, 128 GB RAM, sehr schönes System.
Habe aber gesehen, dass das CVMFS nicht fertigkonfiguriert ist.
PM mit entsprechender Bitte ist raus (Proxy-Empfehlung ebenfalls, ist aber mehr Aufwand).


Ähnliches ist mir schon bei einigen Leuten von der P3D-Gruppe aufgefallen.
Ich habe den Verdacht, dass sich sehr viele Leute (nicht nur P3D) einfach keine Gedanken darüber machen, welch hohe Belastung der Netze bei LHC tatsächlich entsteht und dass hohe eigene Bandbreite alleine nicht die Lösung ist.
Mein eigener 100 Mbit/s download ist im Durchschnitt gerade mal zu 2% ausgelastet.

Könntest du als Gruppenmitglied mal freundlich und vorsichtig nachhaken?
CVMFS über Cloudflare ist in 5 min erledigt und praktisch ein Muss.
Squid macht etwas mehr Aufwand (0,5-1 h).
Ohne Squid ist's bei kleineren Clustern kein Beinbruch, bei vielen Worker Nodes sollte man aber der Empfehlung der Entwickler folgen.

Vielleicht wollen wir das mal ausdiskutieren?! Solltet ihr konkrete Fragen bzgl. des obigen Zitats haben, kann ich die auch gerne weiterleiten. Allerdings muss ich gestehen, ich verstehe keinen Ton davon, wovon da geredet wird. Vermutlich betrifft mich das bei Sixtrack aber auch einfach nicht?!

Gruß
Ritschie
 
Das betrifft die nativen Atlas-WU bei Nutzung vom Singularity/CVMS/Squid. Sind ein paar Sachen einzustellen.

Ich hatte da hier in meinem Beiträgen #297 bis #312 etwas geschrieben. Das geht auf diverse Beiträge vom Sompe und Koschi zurück.

Da ich vom LHC-Mod nichts mehr gehört habe, scheint es noch immer gut zu laufen (auch wenn aktuell der 3900x und V12 keinen gemeinsamen Squid-Cache haben).

Code:
#Squid installieren und anpassen:
#Code:

mkdir -p /var/cache/squid
apt install squid
service squid stop
chown -R proxy:proxy /var/cache/squid
squid -z # zwei mal Enter drücken, das ist schnell fertig, gibt aber keine newline zurück

cp -pr /etc/squid/squid.conf /etc/squid/squid.conf.backup
wget -O /etc/squid/squid.conf http://kerbodyne.com/boinc/squid.conf

#In der squid.conf dann anpassen:
### -> acl localnet auf eigenes Heimnetz
### -> dns_nameservers ggf. anpassen, sicher ist sicher

service squid start

#CVMFS anpassen:
#Code:

vi /etc/cvmfs/default.local
#adjust CVMFS_HTTP_PROXY
CVMFS_HTTP_PROXY="http://squid_hostname_or_IP:3128;DIRECT"

#squid_hostname_or_IP auf LAN IP des Squidrechners anpassen

#BOINC anpassen:
#Code:

"Options -> Other Options -> HTTP Proxy"
               Address:     squid_hostname_or_IP
               Port:         3128

#Tipp:
#127.0.0.1 geht nur, wenn CVMFS und Squid auf der gleichen Box laufen.
#Bei CMS läuft CVMFS in der VM. Das ist aus Netzwerksicht ein anderer Rechner.

#Noch ein Tipp:
#Ein simples Squid-Monitoring bekommst du in einer Linux-Konsole mit dem Kommando:

tail -F /var/log/squid/access.log

#Cachegröße checken:

    du -smx /var/cache/squid

#Logs verfolgen:

    tail -f /var/log/squid/access.log

#Bitte schreib' mal folgende Zeile in die Datei /etc/cvmfs/default.local:

CVMFS_USE_CDN=yes

#Nach dem Abspeichern ein "cvmfs_config reload".

#Bei "cvmfs_config stat" sollte jetzt "...openhtc.io" statt "cvmfs-stratum-one.cern.ch" in der Ausgabe stehen.

P.S.
@koschi Das wäre zusammengefasst Singularity/CVMS/Squid etwas für DC-Wiki
 
Zuletzt bearbeitet:
Da bin ich ehrlich gesagt zu selten damei um mir darüber Gedanken zu machen aber wenn LHC häufiger zum Einsatz kommt hatte ich bei meiner Rechner Flotte schon darüber nachgedacht meinen alten Athlon 5350 als zentrale Verwaltungsstelle und als Proxy einzusetzen. Nach heutigen Stand wären das ja immerhin 3 CPU und 3 GPU Cruncher.
 
P.S.
@koschi Das wäre zusammengefasst Singularity/CVMS/Squid etwas für DC-Wiki
Definitiv! (y) Dann geht die Info später nicht wieder in der Masse der Posts im Thread unter.

Gruß
Ritschie
 
Würde der kleine Athlon überhaupt genug Power haben um die Proxy Aufgabe dafür zu übernehmen?
 
Ich kann über viele Projektbetreiber echt nur lachen.

"Rechnet unsere Aufgaben!" aber
"Nutzt nicht unsere Bandbreite aus!"


*rofl**rofl**rofl*
 
Squid gibt es ja auch für den Raspi. Ist die Frage wieviel GB da im RAM gelagt werden oder wieviel dann dauernd auf der SD schreibt.
Wie viel Auslastung (RAM/Speicher) hat denn eur Squid?

Naja, bei den kleincrunchern werden die nicht jeden anschreiben. Aber die P3D Cluster zählen da schon zu den VIP (und manche unserer Großcruncher sicherlich auch). Und es ja gut, wenn die Projektbetreiber Interresse zeigen, das hier etwas verbessert wird. Das ist besser, als wenn denen alles egal wäre. Gerade weil eine große Flotte eben kein Normalszenario ist.

Gruß
WhiteFire
 
Würde der kleine Athlon überhaupt genug Power haben um die Proxy Aufgabe dafür zu übernehmen?
Japp, reicht dicke aus. Kannst gleich noch Boinc mitlaufen lassen *party2* . Normal stemmt das auch ein Raspberry Pi mit externer SSD als Proxy Cache.
 
@LordNord
In diesem Fall ist es bei den ATLAS auch eher auch für die Cruncher gut, wenn sie mehr als einen "größeren" PC am Netz haben.

Trotz meiner eigentlich guten Leitungen hatte ich Auswirkungen bis hin zum Streaming-TV. Nach einer strukturellen Änderung im Heimnetz und den Einsatz von Singularity/CVMS/Squid ging es dann ganz gut.
 
Trotz meiner eigentlich guten Leitungen hatte ich Auswirkungen bis hin zum Streaming-TV. Nach einer strukturellen Änderung im Heimnetz und den Einsatz von Singularity/CVMS/Squid ging es dann ganz gut.

Bei ein paar Projekten hat man auch subjektiv den Eindruck, dass die das System gerade beim Zugriff auf die Festplatte extrem belasten und dadurch schon die Arbeit am selbigen beeinträchtigen.

Frage ist was nimmt man da am Besten? Ne SSD oder ne SATA-HD mit viel Cache?
 
Irgendetwas klappte mit der CVMS-Installation nicht. koschi ist aber am Ball.
 
Zurück
Oben Unten