13. Pentathlon 2022: Querfeldein (Primegrid)

@MagicEye04
Meine grauen Zellen bilden sich ein sich zu erinnern, dass es von Vorteil ist, die client_state.xml zu manipulieren.
Zu Beginn ist die angenomme WU-Rechenzeit enorm hoch. Um so mehr WUs man zurück meldet, umso mehr verringert sich die angenommene Zeit, und man bekommt mehr WUs runtergeladen.

Um sich die ganze Rechnerei zu sparen, war es nicht so, dass in der folgenden Zeile einfach nur der Wert runtergesetzt werden braucht?
Code:
<duration_correction_factor>1.000000</duration_correction_factor>
Mit einer RTX 2080 Ti sinkt der Wert auf 0.036128. Nur das allein führt noch nicht zum erhoften Ergebnis.

Welcher Wert muß noch verändert werden, damit das funktioniert?
Da musste ich gestern auch rumprobieren:

1. BOINC beenden
2. duration_correction_factor in client_state ändern
3. duration_correction_factor in client_state_prev ändern
4. BOINC fortsetzen
 
@MagicEye04
Meine grauen Zellen bilden sich ein sich zu erinnern, dass es von Vorteil ist, die client_state.xml zu manipulieren.
Zu Beginn ist die angenomme WU-Rechenzeit enorm hoch. Um so mehr WUs man zurück meldet, umso mehr verringert sich die angenommene Zeit, und man bekommt mehr WUs runtergeladen.

Um sich die ganze Rechnerei zu sparen, war es nicht so, dass in der folgenden Zeile einfach nur der Wert runtergesetzt werden braucht?
Code:
<duration_correction_factor>1.000000</duration_correction_factor>
Mit einer RTX 2080 Ti sinkt der Wert auf 0.036128. Nur das allein führt noch nicht zum erhoften Ergebnis.

Welcher Wert muß noch verändert werden, damit das funktioniert?
Ja, diese Erinnerung habe ich auch.
Bei mir passt es aber halbwegs, weil ich Primegrid bereits auf allen Rechnern mal gerechnet hatte.
Der Duration Correction Factor ist bei mir 1.66 auf der RX460 und 0.35 auf der VII.

Hast Du auch die richtige Zeile angeschaut? Der Factor ist ja zig mal drin in der client-state, für jedes Projekt.

Ich würde sagen, irgendwo anders muss ja noch der "Standardwert" sein, der dann mit dem Faktor zusammen die eigentliche Berechnungszeit ergibt.
 
Meine 5700xt @ 90W braucht 11min 27s (687s) bei 2 PPS WUs parallel.
Ich habe das Powerlimit runter gesetzt, damit ich nebenher arbeiten kann. Bleibt schön bei 60 - 65 °C und die Geräuschkullise angenehm.

Edit: Zeit aktualisiert
 
Zuletzt bearbeitet:
Meine RTX 3080 braucht für eine WU (Sieve) mit 99% Auslastung 1:15 min.
 
Ein paar Modelle aus dem Thread ergänzt

1651749020003.png
 
Zuletzt bearbeitet:
@Cashran Hast Du mal probiert, ob Du noch mehr aus Deiner RTX 3080 rausquetschen kannst wenn Du 2 statt nur eine WU laufen lässt? Bei der 980 Ti hat's noch ein bißchen was gebracht anscheinend.
 
hm also bei mir pendelt es sich unter 535sek ein bei der 6900xt mit 6 Wus dabei habe ich dann auch 99% Auslastung auf der Karte. Der Rechner läuft aber nur in meiner Freizeit, der AMD Ryzen 7 PRO 4750G liegt bei 2 Wus gleichzeitig um 8000Sek.
 
PPS (3400 Credits): Radeon RX 5700 XT - 3 parallel - 900s = 979200
WW (12000 Credits): Radeon RX 5700 XT - 2 parallel - 3700s = 560432
 
@Cashran Hast Du mal probiert, ob Du noch mehr aus Deiner RTX 3080 rausquetschen kannst wenn Du 2 statt nur eine WU laufen lässt? Bei der 980 Ti hat's noch ein bißchen was gebracht anscheinend.
Leider nicht gut, die Auslastung sinkt auf 86%, die Laufzeit steigt dementsprechend. 🙁
 
Hab das mal über die MIttagspause gegengetestet. Die herabsetzung des PowerLimits auf -50% (ca. 90W) für die RX 5700XT kostet garnicht mal soviel Leistung, ist aber deutlich Sparsamer:

Code:
RX 5700XT      : PPS 2 WUs -> 615s
RX 5700XT @ 90W: PPS 2 WUs -> 687s
 
@Hammerhead Shark wenn Du noch ein bißchen weiter probieren möchtest, kannst Du versuchen, den Sweetspot herauszutesten, also den Punkt zu finden, ab dem der Abfall der Leistungskurve steiler wird. -10% am Powerlimit z.B. dürfte kaum messbar sein an der Leistung, aber schon hörbar an der Lautstärke und sichtbar am Wattmeter. -20% vielleicht auch noch nicht, usw. Ab einen bestimmten Punkt jedoch kippt die Performance dann doch weg. Kurz davor wäre der optimale Betriebspunkt.

Beim GPU-Mining macht man das genauso; und noch ein paar Optimierungen obendrauf. Wenn ein Algo z.B. hauptsächlich bandbreitenlimitiert ist, wird der Speichertakt rauf und der GPU-Takt runtergesetzt, um Strom zu sparen. Das nur als Anregung, falls Du hier Ambitionen hast zu tüfteln ;-)
 
Ja, da steckt bestimmt noch potential dahinter. Eventuell beschäftige ich mich nach Feierabend nochmal damit.
Jetzt soll er erstmal machen und mich nicht bei der Arbeit stören.
Homeoffice ist einfach was tolles ;)
 
@Cashran Hast Du mal probiert, ob Du noch mehr aus Deiner RTX 3080 rausquetschen kannst wenn Du 2 statt nur eine WU laufen lässt? Bei der 980 Ti hat's noch ein bißchen was gebracht anscheinend.
Also bei meiner RTX 3060 Ti bringt es was.

Laufzeit 1 WU ~160 sec , mit 2 WU ~250 sec, die Auslastung steigt von ca. 80% auf ca.95%

Unter Windoof mit -15% Powerlimit
 
Hallo Leute, hat einer von Euch mal die Auswirkungen der verschiedenen Radeon Treiber auf die Primegrid Performance getestet? Bin mit meiner RX 6900 noch auf dem 21.3.2, da der signifikant bessere Performance unter Folding @Home bringt als die neueren Treiber (5Mppd vs 1,5-2,5 Mppd).
Evtl. macht es aber Sinn aus Performancegründen für den Pentathlon auf eine andere Version zu wechseln?
Wer weiß was??

Greetz
Doppelposting wurde automatisch zusammengeführt:

Und gleich noch ne Frage, diesmal zu app-config.xml.
Wenn ich auf 6 WUs parallel gehen will (bin aktuell bei 3 parallel) , dann setze ich doch den Eintrag

<gpu_usage>0.165</gpu_usage> oder?

Nutzt der Eintrag
<cpu_usage>1.0</cpu_usage>
dann alle 6 CPU Kerne oder 6 Threads? Falls ersteres, würden 6 CPU Threads für das Handling ausreichen und was müsste ich dafür einstellen?

Und dann muss ich nur noch Bunkerinstanzen anlegen, damit auch alle submits zählen..

Greetz
 
Zuletzt bearbeitet:
Hi
eigentlich brauchst du nicht mehr wie 2 kerne für 6 Wus reservieren wenn das ende etwas verteilter ist würde auch ein kern reichen, ich habe 2 laufen bin bei 515-535sek Laufzeit mit dem Aktuellen Treiber auf der 6900xt Referenz PT-5%
lg
 
Da musste ich gestern auch rumprobieren:

1. BOINC beenden
2. duration_correction_factor in client_state ändern
3. duration_correction_factor in client_state_prev ändern
4. BOINC fortsetzen
Danke, also in Beiden. Den Gedanken hatte ich auch. Bin dann nur drüber weggekommen, ihn auch zu verfolgen.
 
Meine 6900XT macht alle ~6:20 min 4 Primeln fertig. Die 6800XT braucht dafür ~1min länger.
 
Hi
eigentlich brauchst du nicht mehr wie 2 kerne für 6 Wus reservieren wenn das ende etwas verteilter ist würde auch ein kern reichen, ich habe 2 laufen bin bei 515-535sek Laufzeit mit dem Aktuellen Treiber auf der 6900xt Referenz PT-5%
lg
Danke, das heisst, bei einer 6Kern CPU würde ich dann 0,33 bei cpu_usage einstellen?
Bin aktuell bei 430s Laufzeit bei 3 parallelen WUs und Universe auf 9 Threads bei rund 150-160W.

Greetz
 
@Meisterfragger ich würde testweise mal das CPU-Projekt anhalten und einen Satz Primeln durchlaufen lassen ohne weitere Last auf der CPU, damit Du siehst, wie Deine Werte im Idealfall sind. Wenn sie dann mit CPU-Last deutlich länger werden, weißt Du, dass etwas nicht stimmt, weil Du den direkten Vergleich hast und kannst entsprechend gegensteuern.
 
PG auf "alten" HD7990+7970 benötigt auch irgendwie mehr als die 3 Kerne meines Q9550, hatte schon vergessen wie schlecht manche OpenCL Programme sind bzw. wie gut CUDA optimiert ist
 
RTX 2070 Super 2 WU´s je 256 sec entspricht einem Tagesoutput von 2.275.000 Cr
RTX 2080Ti 3 WU´s je 224 sec entspricht einem Tagesoutput von 3.900.000 Cr
 
Hm, wenn ich meine Vega 56 mit folgenden Einstellungen fahre...
Code:
<app_config>
 <app_version>
  <app_name>pps_sr2sieve</app_name>
  <plan_class>openclatiPPSsieve</plan_class>
  <cmdline>-m1 --vecsize=4</cmdline>
  <avg_ncpus>1</avg_ncpus>
  <ngpus>0.5</ngpus>
 </app_version>
</app_config>

...statt mit der app_config.xml aus unserem DC-Wiki für AMD-Karten für Primegrid...

Code:
<app_config>
 <app_version>
  <app_name>pps_sr2sieve</app_name>
  <plan_class>openclatiPPSsieve</plan_class>
  <cmdline>-m16 --vecsize=1</cmdline>
  <avg_ncpus>1</avg_ncpus>
  <ngpus>0.5</ngpus>
 </app_version>
</app_config>

...sinkt die Berechnungsdauer für 2 WUs gleichzeitig von 10:20 Minuten auf 9:20 Minuten... *suspect*
 
Zuletzt bearbeitet:
Zurück
Oben Unten