Formula Boinc 2021

Status
Für weitere Antworten geschlossen.
Meine beiden Rechenknechte kriegen aber keine Sixtracks - jeder gerade mal eine WU, dann: "This computer has reached a limit of tasks in progress" :]
 
Egal was ich mache, es laufen max. 11 ATLAS WUs parallel, 16 könnten. 40 Threads müßte ich also mit etwas anderen füllen um das Ding auszulasten. *kopfkratz
Das bedeutet aber auch dass die Kiste ca. alle 3 Stunden fast 8 GB an WUs runterladen müßte, das wären dann um die 60 GB pro Tag. *chatt*
 
@Maverick-F1
Ich könnte mit allen Threads an der 90GB Grenze kratzen. 🙈
Doppelposting wurde automatisch zusammengeführt:

Ah ich habe den 1,6 GB Download gefunden, könnte der CMS Client sein. *chatt*
 
Ich will hier eigentlich "nur" SixTrack rechnen - aber jeder Rechner kriegt nur genau eine WU (hab' zum Test noch den R9 mitreingenommen). Mach' ich was falsch? *noahnung*
 
Möglicherweise :)
Schau mal in den Projekteinstellungen, ob die max. Anzahl von WUs auf 1 steht.
 

*chatt*

Da hatte ich das letzte Mal noch mit den (nativen) ATLAS-WUs rumgespielt und tatsächlich die Limits übersehen - da hab' ich wohl 'nen Elch verdient! *buck*
 
Sagt mal, kann es sein das vBox bei der Anzahl der Kerne/Threads limitiert ist?
Mehr als 92 bekomme ich nicht zum laufen. *kopfkratz
 
Waren die Atlas nicht welche, die gleich mehrere Kerne pro WU nutzen?
Bei mir war das auf 4 CPUs gestellt.
 
Ja ATLAS mit mehreren Threads laufen lassen, mit nur einem gibt es massiven Overhead durch vBox und auch nativ durch cvmfs und Singularity. 4-6 Threads ist das Optimum.
Die CMS und Theory sind single threaded.

Auf den 7v12 ließen sich aber auch nicht genug WUs starten um alle Kerne auszulasten, zuvor ging vBox in die Knie und die Berechnung der schon laufenden WUs kam dann kaum noch voran.

Nativ eliminiert man den vBox Spielkram, sollte sich aber einen Squidproxy aufsetzen der den Traffic der ATLAS dann massiv reduziert. Beschreibung dazu findet sich in unserem Wiki.
 
So richtig weiss ich noch nicht was ich machen soll.
Mit vBox werden nicht alle Threads genutzt und auf den Konfigurationszirkus um die native WUs habe ich keine lust.
Vermutlich schalte ich entweder SMT ab oder setze BOINC auf 50% der Kerne um den gleichen Effekt zu haben. Dann rauschen halb so viele WUs halt schneller durch.
 
So richtig viel hatten meine Rechner nicht eingelagert und liefen alle leer. Die haben jeweils nur 88 WUs bekommen. Und da waren wohl zu viele WUs drin, die nach wenigen Sekunden schon wieder als beendet gelten.
Egal, auf gehts!
 
Die CMS WUs kann ich getrost knicken, da kam bisher zu 100% nur Schrott raus.
 
Ich verlinke einfach mal den besagten Rechner: https://lhcathome.cern.ch/lhcathome/results.php?hostid=10644354
Beim Ablauf kann ich keinen Fehler erkennen aber beim Arbeitspaket sagt er bei 1 von 1 WUs als Fehler zu "viele Ergebnisse"
Seit alle anderen WUs durch sind scheinen 10 WUs seit 4-7 Stunden noch zu laufen, 6 wurden verdrängt und die einzigen anderen WUs die noch laufen sind 3 WCG Regenwolken.......bei 64 Kernen/128 Threads, 128GB RAM die zu 95% von BOINC genutzt werden dürfen und einer 500GB SSD bei der BOINC 10 GB frei lassen soll.
 
Dieses VM Heartbeat file scheint zu fehlen.
Laut diesem Post im LHC-Forum kann es problematisch sein, zu viele Theory CMS auf einmal zu starten. Bei deinem 64-Kerner kann ich mir das gut vorstellen.
 
Zuletzt bearbeitet:
Es ging ja um die CMS und nicht um die Theorie WUs. Letztere neigen eher dazu sich festzufressen.
Zudem nutze ich nur noch die vBox WUs weil ich keine Lust mehr auf den Zirkus um die native WUs habe. Sollten die mal ohne Zusatzarbeiten vernünfig laufen würde ich sie gern wieder aktivieren.
Das Projekt scheint verdammt schlecht auf heutige Prozessoren vorbereitet zu sein......
 
Ich glaub, das Posting im LHC-Forum bezog sich auch auf CMS. Hab meinen Beitrag daher editiert.
Ich geb dir Recht, das ist nix, was man dann einfach so laufen lassen kann bei dieser hohen Fehlerquote einfach nur durch zu viele Kerne.
 
So langsam habe ich auch den Durchblick warum die Anzahl der laufenden WUs begrenzt wurde.
Die ATLAS vBox WU scheint 10GB RAM zugeteilt zu bekommen, Theorie vBox war mit 2,3 GB dabei und die bisherigen fehlerhaften CMS vBox WUs bekamen 1,9 GB.
 
Und einfach mehrere VMs laufen lassen ist keine Option?
 
Ausgehend von der Speicherbelegung bräuchte ich ca. 320GB RAM nur für BOINC wenn ich alle 128 Threads uneingeschränkt nutzen wollte, allerdings scheint die gleichzeitig laufenen CMS WUs durch irgendetwas auf 10 limitiert zu sein. Mit 2 GB RAM pro Thread sollte man also rechnen.
 
Tolle Rechner kann man bei LHC finden (natürlich nicht meiner):
1632471700906.png
 
Sixtrack sollte durch mehrere VMs oder einfach auch nur mehrere Instanzen kein Problem sein.
Der BOINC vmwrapper und vBox sind einfach nicht fit genug um eine hohe Anzahl von VMs zu verwalten.

Auf Thorsams Systemen mit CMS WUS fraß irgendwann vBox selbst die meisten CPUs und es blieb für die Jobs kaum mehr was über bzw. brachen die auch ab. Das taugt höchsten für Systeme bis 32 Threads würde ich meinen und dann würde ich auch Sixtrack unter mischen, einfach um die RAM Anforderungen niedrig zu halten.
 
Zuletzt bearbeitet:
Ich starte noch eine Runde mit dem kleinen Matze Cruncher.
Dessen 3850x hat 64 GB RAM und käme damit auf die besagten 2 GB pro Thread.
Doppelposting wurde automatisch zusammengeführt:

Soooo....
4x ATLAS vBox WUs (je 8 Core) laufen schonmal parallel, die RAM Auslastung liegt bei ca. 49%.
Edit: Zwischenzeitlich ist die Speicherauslastung auf 53% geklettert.
 
Zuletzt bearbeitet:
Ich bin jetzt erst mal auf Sixtrack umgestiegen. Da werden wenigstens alle Threads genutzt und die Kisten sind nicht ununterbrochen am Runterladen. CMS und ATLAS rechne ich natürlich was runtergeladen wurde.

Den 3900X habe ich dann doch angeworfen. Bei den Sixtrack-WUs geht das - die brauchen nur sehr wenig Arbeitsspeicher.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten