koschi
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.957
- Renomée
- 256
- Standort
- 0511
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- sieher Banner
- Lieblingsprojekt
- WCG, Einstein, Universe
- Meine Systeme
- R7 3900X @ 85W + Vega 56, 8 x Odroid C2, 8 x Odroid XU4, 4 x Odroid N2, 3 x Nvidia Jetson TK1
- BOINC-Statistiken
- Folding@Home-Statistiken
- Details zu meinem Desktop
- Prozessor
- R9 3900X
- Mainboard
- Asus PRIME X370 PRO
- Kühlung
- Thermalright Le Grand Macho RT
- Speicher
- 2x32 GB DDR4 Corsair Vengeance LPX 3200@3200
- Grafikprozessor
- 2 x Sapphire Pulse Vega 56
- Display
- HP ZR24w
- SSD
- Samsung EVO Plus 870 1TB & 850 500GB, Crucial MX500 1TB
- Optisches Laufwerk
- PIONEER BDR-209DBK
- Soundkarte
- Nubert nuPro A-20 (USB), Pioneer SE-MS7BT(K) (BT)
- Gehäuse
- Fractal Design Define R5 PCGH
- Netzteil
- BeQuiet! StraightPower 11 650W
- Betriebssystem
- Ubuntu LTS
Die Up- und Downloadzeit der WU soweit BOINC sie sieht wird ja zu deren Laufzeit nicht hinzugezählt. Sobald die WU + Anwendung dann einen Slot kopiert/gelinked und gestartet werden, beginnt die Laufzeituhr zu ticken. Da geht dann bei ATLAS aber erst die Vorbereitungsphase los, OS container entpacken, jede Menge Zeug mounten, dann hunderte bis tausend Files ziehen bevor es überhaupt losgeht mit der Berechnung. In der Zeit wird kaum CPU-Zeit in Anspruch genommen, es lohnt sich daher diese Phase soweit als möglich zu verkürzen, sowie die Parallelität von 12 oder 8 auf 4 zu reduzieren, dann sind nicht so viele Threads idle, die Effizienz steigt.Danke für deine Erklärung, koschi.
Ich rechne die ATLAS Simulation 2.85 (native_mt), also nativ mit dem CVMFS installiert in meinem Linux Mint.
Es waren vorhin so 300MB Upload und 550MB Download bei einer Atlas-WU. Das hat bei mir ca. eine Minute gedauert. Wenn es um diese Minute für den Squid-Proxy nur geht - lohnt dann der Aufwand?
Vielleicht ja während serverseitig ungünstiger Bedingungen wie während einer Challenge wie dem Pentathlon kann das ein Vorteil sein.
Zu Spitzenzeiten zeigte mein access.log vom Squid 140.000 Zugriffe am Tag, rein aus BOINC, über 99% davon zum CERN hin. Bei ca. 60 ATLAS am Tag sind das pro WU 2300 Zugriffe auf das Internet. Der Großteil dieser Zugriffe wird jedoch vom Squid lokal abgefangen und beantwortet.
Im Heimnetzwerk mit gesamt 12 ATLAS Threads ist das noch kein Problem. Für den Cluster mit über 1000 Threads blieben jedoch selbst mit Squid noch soviele parallele Kleinstverbindungen übrig, dass die Netzwerklatenz im LAN übel einbrach, LHC auf dem Cluster daher ausfällt.
Caching der eigentlichen "BOINC WU" lohnt sich nicht, sie sind riesig und doch einzigartig, würden also kein zweites Mal aus dem Cache abgerufen werden.