Neue WUs bei LHC@Home!

koschi

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.926
Renomée
253
Standort
0511
  • Spinhenge ESL
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
Von drehender Platte würde ich absehen, die Dateien im Cache sind sehr klein, da wird nicht viel am Stück gelesen.

Ich hatte mir die cvmfs Installation & Konfiguration im November in einer Datei abgelegt und so auf verschiedenen Rechnern ausgerollt, lief überall dann auch problemlos. Nachdem einige ja nun neuinstalliert worden waren klappt das nicht mehr, die von cvfms_config probe gezeigten Einträge zeigen alle Failed. Ich muss mal gucken ob das LHC Forum dazu was hergibt.

Das Engagement des Moderators ist lobenswert, grundsätzlich finde ich aber das LHC aktiver (früher) und umfassender informieren könnte. Das könnte im Profil mit einem Link direkt neben der "Use native when available" Checkbox zum aktuellen cvmfs & Squid Setup beginnen, oder meinetwegen zu einer Übersichtsseite für Dummies und Max Mustermann den Durschnittsboincer. Kurze Darstellung der Architektur, welche Komponenten sind relevant, was genau ist zu tun.

Einigen Nutzern eines 128 Thread Systems wird die hohe Netzlast nicht auffallen, andere kommen evtl. von selbst drauf das es an LHC liegt, aber sehen die Möglichkeiten zur Optimierung nicht. Letztendlich ist so ein Prozessor dann auch nicht schneller als vier 3950X, die unter Enthusiasten verbreitet sind. Wenn schon 4 Enthusiaten das Projekt zum schwitzen bringen, sollte man die Infos vielleicht nicht nur in irgendwelchen nicht mehr änderbaren Forenthreads ablegen.
Systeme mit vielen Cores sind beliebt, die angesprochenen 10 worker (was ist das genau? Ich gehe davon aus es sind Threads gemeint) hat ja nun mitlerweile jeder Mittelklasseprozessor, zunehmend selbst einige Notebooks.
Demnach müsste die Empfehlung für jeden ATLAS (native) Cruncher lauten: Squid installieren & konfigurieren, CVMFS anpassen.
Das muss irgendwo deutlich stehen. Hinterher nur den großen Jungs auf die Pfoten zu hauen beseitigt die Ineffizienzen bei den kleineren auch nicht.
 

thorsam

Grand Admiral Special
Mitglied seit
05.04.2003
Beiträge
2.311
Renomée
436
Standort
Hannover
Irgendetwas haut da mit der Einstellung "Maximale Anzahl CPUs" nicht hin.
Sobald ich etwas anderes als "keine Einschränkung" eintrage, werden solange keine neuen WUs nachgezogen,
bis der Wert erreicht ist, und da bleibt es auch.
Um mich komplett zu verunsichern, kommt folgende Meldung im Boincmanager:
Code:
Sa 20 Feb 2021 21:21:15 CET | LHC@home | No tasks are available for SixTrack
 

erde-m

Grand Admiral Special
Mitglied seit
23.03.2002
Beiträge
2.914
Renomée
162
Standort
TF
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
Von drehender Platte würde ich absehen, die Dateien im Cache sind sehr klein, da wird nicht viel am Stück gelesen.
Bei den Mengen ist eine gute SSD wohl besser.
Demnach müsste die Empfehlung für jeden ATLAS (native) Cruncher lauten: Squid installieren & konfigurieren, CVMFS anpassen.
Das muss irgendwo deutlich stehen. Hinterher nur den großen Jungs auf die Pfoten zu hauen beseitigt die Ineffizienzen bei den kleineren auch nicht.
Zumal es sehr wahrscheinlich wesentlich mehr von den "kleinen" Crunchern gibt. Mit dem aktuellen Run auf die 8/16-und 12/24-Kerner wird das Problem noch größer werden.
Wenn computezrmle nicht merkt, dass das Stückwerk an Infos über mehrere Freds verteilt, für ihn mehr Arbeit macht als einmal das als Zusammenfassung prominent zu platzieren, dann hat er eben mehr Arbeit ;)

Wir können das natürlich auch gut in unseren DC-Wiki ausarbeiten und im LHC-Forum einstellen und verlinken...*buck*
Irgendetwas haut da mit der Einstellung "Maximale Anzahl CPUs" nicht hin.
Sobald ich etwas anderes als "keine Einschränkung" eintrage, werden solange keine neuen WUs nachgezogen,
bis der Wert erreicht ist, und da bleibt es auch.
Um mich komplett zu verunsichern, kommt folgende Meldung im Boincmanager:
Code:
Sa 20 Feb 2021 21:21:15 CET | LHC@home | No tasks are available for SixTrack

LHC lasse ich immer unbegrenzt laufen. Ich musste bisher eher andere parallel laufende Projekte begrenzen, damit die sich nicht alles geschnappt haben, egal wie die Deadline der LHC aussah. Da scheint es im BM noch Probleme zu geben + das Problem der fehlenden WU-Verteilung an Threadmonster seitens der Projektbetreiber.
 

thorsam

Grand Admiral Special
Mitglied seit
05.04.2003
Beiträge
2.311
Renomée
436
Standort
Hannover
Mein Erkenntnisgewinn für dieses Wochenende besteht darin, dass mit 2 Cluster-Rechnern die Upload-Bandbreite
der Mobilfunkverbindung ausgereitzt ist. Na gut, wir reden ja hierbei immerhin von 512 Threads. ;D
 

erde-m

Grand Admiral Special
Mitglied seit
23.03.2002
Beiträge
2.914
Renomée
162
Standort
TF
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
Reicht doch aktuell aus *great*
 

thorsam

Grand Admiral Special
Mitglied seit
05.04.2003
Beiträge
2.311
Renomée
436
Standort
Hannover
Ich würde gerne meine Up- und Down-Loads auf die Vormittagsstunden verlegen, weil dann die Datengeschwindigkeit mit dem Projekt um einiges höher ist.
Nur will das Projekt mir maximal eine Reserve-WU rausrücken. Macht das einen Unterschied, ob ich Sixtrack oder ATLAS rechne?
Zur jetzigen Tageszeit rechnet das System schneller, als es ATLAS-WUs nachladen kann.
1/3 der Threads hat Arbeit. Tendenz absteigend.

----

Warum starte ich Dullie eigentlich keine zweite Instanz? *glaubses*
Ist nur die Frage, was ich in die hosts-Datei eintragen muß?
 
Zuletzt bearbeitet:

enigmation

Commander
Mitglied seit
15.12.2016
Beiträge
178
Renomée
77
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
Vor einem Monat hab ich eine Woche
  • native_theory: 0,82 Credits/Minute
  • native Atlas: 1,02 Credits/Minute
  • Sixtrack: 0,9 Credits/Minute
gerechnet unter Linux. Die üblichen Schwankungen berücksichtigend ist es also gehupft wie gesprungen, was du nimmst.
 

koschi

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.926
Renomée
253
Standort
0511
  • Spinhenge ESL
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
Sixtrack:
Code:
koschi@frickelbude:~$ get_validated "https://lhcathome.cern.ch/lhcathome/results.php?hostid=10609806&offset=0&show_names=0&state=4&appid=1"
0 20 40 60 80 - download complete. Calculating...
Application:                              SixTrack
CPU:           AMD Ryzen 9 3900X 12-Core Processor
OS:                Linux Ubuntu Ubuntu 20.04.2 LTS
Results fetched:                               100
Average duration (s):                       7836.4
Average credit:                              92.62
Number of reported cores:                       24
Per core per day:                             1018
Per system per day:                          24432

CMS simluation:
Code:
koschi@frickelbude:~$ get_validated "https://lhcathome.cern.ch/lhcathome/results.php?hostid=10609806&offset=0&show_names=0&state=4&appid=11"
0 20 40 60 - download complete. Calculating...
Application:                        CMS Simulation
CPU:           AMD Ryzen 9 3900X 12-Core Processor
OS:                Linux Ubuntu Ubuntu 20.04.2 LTS
Results fetched:                                49
Average duration (s):                      42789.4
Average credit:                             466.46
Number of reported cores:                       24
Per core per day:                              932
Per system per day:                          22368

ATLAS Simluation (native):
Code:
koschi@frickelbude:~$ get_validated "https://lhcathome.cern.ch/lhcathome/results.php?hostid=10609806&offset=0&show_names=0&state=4&appid=14"
0 20 40 60 80 - download complete. Calculating...
Application:                      ATLAS Simulation
CPU:           AMD Ryzen 9 3900X 12-Core Processor
OS:                Linux Ubuntu Ubuntu 20.04.2 LTS
Results fetched:                               100
Average duration (s):                      54296.3
Average credit:                             658.91
Number of reported cores:                       24
Per core per day:                              988
Per system per day:                          23712

Den non-Sixtrack kannst du den Netzwerkzugriff aber nicht verbieten, dann pausieren die. Über /etc/hosts führt das vermutlich zu Abbrüchen, wenn benötigte Inputs für die WUs nicht geladen werden können. Würde ich von absehen.
 

MagicEye04

Grand Admiral Special
Mitglied seit
20.03.2006
Beiträge
18.950
Renomée
343
Standort
oops,wrong.planet..
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
ich bin heute von einem LHC-Mod, mit dem ich gerade "privat" gemailt hatte, angeschrieben worden...
Ich erinnere mich mit Schrecken an die Bastelei mit dem Proxy.
Noch mal möchte ich das nicht machen.
Wäre es da nicht sinnvoller, wenn seitens des Projektes ein lokaler Cache für die Daten angelegt wird? Das sollte doch locker in den RAM oder eine Datei auf der Festplatte passen. So müssen sämtliche User diesen Workaround implementieren, anstatt dass es nur einer mal direkt im Projekt macht.
 

koschi

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.926
Renomée
253
Standort
0511
  • Spinhenge ESL
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
Mit lokal meinst du auf Projektserverseite? Dann muss es ja trotzdem noch durch deren WAN Verbindung, die wird dann wohl seitens LHC aber schnell zum Flaschenhals.

Daher versuchen sie Teile der Daten außerhalb ihres Netzes auszulagern und versuchen so viele Daten wie möglich in der Nähe der "worker" bereit zu halten. Da ergänzen sich mehrere Maßnahmen:

Code:
[ LHC Projekt und HPC Server ]
 /\
/||\
 ||                WAN link
\||/
 \/
Nutzung von openHTC.io (nutzt cloudflare im Hintergrund)
 /\
/||\
 ||             WAN link
\||/
 \/
Unsere Squid Caches
 /\
/||\
 ||                LAN
\||/
 \/
den internen Cache von CVMFS

Der Pfeil vom CVMFS zum OpenHTC müsste wohl am Squid vorbeilaufen, bin aber zu faul das nochmal umzubauen. Es gibt also eine Cache Hierarchie die so schon massiv Bandbreite spart und auch genutzt werden sollte.

Ich hab CVMFS und Squid jetzt mehrfach installiert, fand die CVMFS Installation irgendwie fehleranfälliger.
Squid geht in wenigen Minuten durch. Meine Anleitung war damals vielleicht noch nicht ganz eindeutig an einigen Stellen, ich gelobe jene im Wiki dann zu verbessern.
 
Zuletzt bearbeitet:

koschi

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.926
Renomée
253
Standort
0511
  • Spinhenge ESL
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020

Gerade über diesen Beitrag gestolpert der die "worker" definiert, letztendlich ist es wie vermutet die Anzahl an Threads die CMS, ATLAS oder Theory rechnen.
Die Empfehlung einen Cache einzusetzen wurde von 10 auf 5 Threads herabgesetzt, dh. wer ernsthaft LHC abseits von Sixtrack rechnen will, sollte einen Squidcache aufsetzen.
 

koschi

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.926
Renomée
253
Standort
0511
  • Spinhenge ESL
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020

Das "wie" ist abgedeckt, es fehlt vielleicht noch ein wenig zum "warum" bzw. der allgemeinen Architektur. Da gucke ich mal ob ich ein frei kopierbares Schaubild finde.

@NEO83
Installation von Squid und CVMFS läuft bissl anders, die Konfiguration sollte dann aber auch für Arch passen.
 
Zuletzt bearbeitet:

Aktuelle Aktionen

Nächstes Race:
Formula Boinc - 1. Sprint - 19.03. (12:00 Uhr) bis 22.03. (11:59 Uhr)
Projekt noch unbekannt
Thread bei uns im Forum
Formula Boinc - Sprints
Oben Unten