13. Pentathlon 2022: Stadtlauf (Einstein@home)

@koschi
Eine WU habe ich losgelassen. Status in den 3-4 Minuten knapp 10%. Der Lüfter der GPU ist gerade angelaufen.
Wenn das möglicherweise plausibel weitergeht , dann lass ich die paar heute Nacht berechnen. Morgen steht dann Material zur Verfügung , welches man überprüfen kann. Ansonsten , wie gesagt wird die Kiste degradiert zum Marathon.
Auf 11 Kernen rechnet das NB Universe.
 
Kannst Du irgendwo die GPU-Temperatur anzeigen lassen? nvidia-smi müsste als Befehl reichen.
Vielleicht wirds der ja einfach zu warm. Dann wäre ggf. eine Drosselung sinnvoll.
 
Ich bin jetzt schon gespannt was TAAT morgen um die Zeit geliefert hat.

Grüße, Martin
 
@koschi
Eine WU habe ich losgelassen. Status in den 3-4 Minuten knapp 10%. Der Lüfter der GPU ist gerade angelaufen.
Wenn das möglicherweise plausibel weitergeht , dann lass ich die paar heute Nacht berechnen. Morgen steht dann Material zur Verfügung , welches man überprüfen kann. Ansonsten , wie gesagt wird die Kiste degradiert zum Marathon.
Auf 11 Kernen rechnet das NB Universe.
Ist die WU fertig geworden?

Wenn die wieder hängt (sollte max. ne halbe Stunde laufen), geh lieber zu Srbase, das mag Nvidia.
 
Verdammte Axt, was sich schon mit dem Tahiti-System abgezeichnet hat, zeigt sich nun auch auf den Vega-Systemen. Die WUs dauern in diesem Jahr fast eine ganze Minute länger als noch letztes Jahr *kopfkratz Beim Tahiti-System hatte ich es noch auf die CPU geschoben, einen K10, der ewig beschäftigt war mit der Fertigstellung der letzten paar Prozent. Aber auch hier auf den Ryzens dauert das ewig.

Kurzum: so geht meine Kalkulation nicht auf, ich hab mir zu viele WUs gezogen. Entweder ich brech die zeitnah ab, damit der Server sie nochmal verschicken kann, was aber schade wäre, weil sie schon gut abgehangen sind, oder vielleicht kann mir jemand mit Windows und Radeon-GPU ein paar Instanzen abnehmen? *rose*
 
Es gibt immer mal wieder batches, die kürzer oder länger dauern. Da muss man schon vor dem Bunkern ein paar WUs durchrechnen lassen.
 
@Nero24
Bei meinem gestrigen Testlauf mit den VIIs war es bei der bekannten Denkminute am Ende der WU geblieben allerdings bekam ich da für die 4 x 4 Ausglastung nie genug WUs um vernünftige Zeiten zu bekomme.
 
@Nero24 sobald ich hier alle CPU WUs in Linux durch habe könnte ich dir eine Instanz abnehmen ... sind das opencl2 oder opencl1?
Ich frage weil ich sonst die iGPU ausschalten muss, die kann die 2er nicht berechnen :P
 
Meine vorbereiteten sind alle so 4:30 - 4:40 - macht sich gut (Linux VM mit Universe @12 kerne und die 6900XT mit dem Rest am host für Einstein.

Passt das so, oder muss ich da noch was optimieren?


1652428415974.png
 
@skelletor Optimierungspotential sehe ich in 1-2 weiteren 6900XT sonst ist das sicherlich ok :D
 
@Nero24 sobald ich hier alle CPU WUs in Linux durch habe könnte ich dir eine Instanz abnehmen ... sind das opencl2 oder opencl1?
Ich frage weil ich sonst die iGPU ausschalten muss, die kann die 2er nicht berechnen :P
Das wäre cool! :D Alles opencl1. Ist aber Windows, gell. Denke nicht, dass Du die Instanz unter Linux ans Laufen kriegst oder hast Du Dual-Boot eingerichtet?
 
Das wäre cool! :D Alles opencl1. Ist aber Windows, gell. Denke nicht, dass Du die Instanz unter Linux ans Laufen kriegst oder hast Du Dual-Boot eingerichtet?

Dual-Boot :D
Ich kann halt nicht komplett auf Windows verzichten daher hab ich beides ^^

Dauert aber sicher noch bis morgen ... über 300 Speere und über 300 Universen und die Speere dauern unter linux halt länger ...

Vllt warte ich auch nur bis ich die PG und Einsteine fertig hab und Wechsel dann eben ... den Rest kann ich auch später noch berechnen
 
Querfeldein (Primegrid) läuft ja eh diese Nacht aus.
 
Mit der OpenCL-2-App liegt eine GeForce RTX 3060 Ti nun in etwa auf Augenhöhe mit einer Vega 56 unter OpenCL 1 und ist schneller als eine RTX 3080. :o Der AMD-Vorsprung ist also dahin *noahnung*

1652433866430.png

Wer eine aktuelle NVIDIA Turing oder Ampere hier einsetzen möchte, tut also gut daran, die Projektsettings entsprechend zu setzen:

1652433939314.png
 
RX6600M @OCL2 --> Linux --> 2WUs --> 647s

Hier scheint aber etwas nicht ganz grün zu sein Oo
Sollte eine 5600XT nicht eigentlich langsamer sein ? ^^

Ich werd das unter windows nochmal nachtesten, und sobald möglich auch noch OCL1 unter Linux ... OCL2 scheint bei AMD nicht unbedingt schneller zu sein, warum auch immer ...
 
@MagicEye04 @koschi
Sorry , bin gestern abend auf der Couch eingeschlafen.
Die Temp der GPU liegt bei 52°C , 20W bei der aktuellen WU soweit ich das verstehe und die berechnete WU von heute Nacht ist wieder Schrott.

So bin kurz im Bad und beim Essen , dann geht's weiter.
 
Die anderen beiden (Arecibo u. gravitational) GPU Projekte aus lassen?
Hab die alle 3 drin, aber nur Gamma Ray bekommen.

Wenn die anderen was lahm legen oder 20x weniger Punkte bringen, schalt ich die noch aus.
 
Die Gravitational Wave bringen weniger Punkte, für Binary Radio Pulsar Search (Arecibo, large) (BRP4G) bekommst du nur mit Intel iGPU oder CPU überhaupt WUs.

Bleib bei den FGRP1G.
Doppelposting wurde automatisch zusammengeführt:

@MagicEye04 @koschi
Sorry , bin gestern abend auf der Couch eingeschlafen.
Die Temp der GPU liegt bei 52°C , 20W bei der aktuellen WU soweit ich das verstehe und die berechnete WU von heute Nacht ist wieder Schrott.

So bin kurz im Bad und beim Essen , dann geht's weiter.
Schwierig das remote zu untersuchen, ich würde aber sagen mach erstmal Srbase...
 
Wo war noch gleich die Einstellung, 2 WUs parallel berechnen zu lassen?

Gruß
Ritschie
 
Zurück
Oben Unten