Gamma-ray pulsar binary search #1 (GPU)

Naja wie gesagt mit 2 WUs läuft alles normal und mit der dritten spackt die Karte ab
Der VRAM ist dann noch nicht voll? Eine WU braucht bei mir ~700MByte und ~126A VDDC current.
Zwei WUs wären vom VRAM noch oke, aber 252A (pro GPU mal zwei) sind zuviel, daher ist mein System wohl eingefroren.
Da ich jetzt aber die Lüftersteuerung meines Tower anpassen konnte muss ich es nochmal probieren.

Hier sieht man was ich meine, manche WUs Lasten die GPU nicht konstant aus, das sind idle Phasen dazwischen (grüner Kringel)
http://abload.de/img/boinceinsteingene_gpuvlrjs.jpg

Ich hoffe es ist verständlich genug, fragen?
 
https://einsteinathome.org/de/goto/comment/154151
Bernd Machenschalk schrieb:
- Due to the experiences with the 1.17 "Beta" app versions the general GPU RAM requirements for FGRPB1G has been lowered to ~766 MB

- There is a new "Beta Test" app version 1.18 with a few improvements Christophe developed over the holidays. It should be significantly faster than 1.17, in particular on GPUs that support double precision.

GPU Last bei mir mit nur einer WU fast durchgängig 99-100%. User berichten von 25-50% Laufzeitreduzierung, bei mir ca. -40%.
 
Zuletzt bearbeitet:
Immer noch ein freier Kern nötig?
 
Ja, es braucht aber nur noch eine WU um die GPU auszulasten, von daher schon effizienter.
Habe noch nicht getestet ob 2 WUs noch Vorteile bringen.
 
Ich hab noch nen paar Primeln in der Leitung ... danach werd ich mal noch mal eine an
 
Habe noch nicht getestet ob 2 WUs noch Vorteile bringen.

von 970 Sekunden auf 890 Sekunden runter, die mega lahme Desktopperformance und der extra Kern wären mir das aber nicht wert...
 
Naja aber für eine Race wären die knapp 10% Mehrleistung dann schon interessant.
Sonnst hast Du natürlich recht.
 
Stimmt schon, so lasse ich das jetzt auf der 750 Ti laufen, da arbeitet niemand dran.
Laufzeit dort dann 2625 Sekunden.
 
Auf meiner kleinsten Tahiti hat sich die Laufzeit glatt halbiert (2630s ->1270s), bei geringerer CPU Last.
 
vllt läuft betreffen die Optimierungen auch einfach eher AMD Karten als NV Karten :)
 
Nicht unbed. AMD, aber Karten mit viel DP:
- There is a new "Beta Test" app version 1.18 with a few improvements Christophe developed over the holidays. It should be significantly faster than 1.17, in particular on GPUs that support double precision.
 
ok also eigentlich schon nur AMD, also wenn man die Profikarten mal raus lässt ... aber stimmt schon, auch für AMD ist es keine generelle Aussage, meine Fury ist ja auch nen DP Krüppel :D
 
Ich würde meine 40% Gewinn jetzt nicht unbedingt als "nicht betroffen" ansehen, sind auch nur 10% weniger als die von cyrus beobachtete Laufzeithalbierung (-50%) ;-)
Das lohnt sich schon für alle Teilnehmer die Beta apps zu aktivieren...
 
ach Beta xD ne da hab ich nu kein Lust drauf ich warte bis sie wirklich da sind :P das erklärt aber warum ich ne 1.17 bekommen habe :D
 
Welche Einstellungen in der app_config.xml habt ihr denn für diese App?
Entweder habe ich nicht den richtigen Namen oder ich kann einfach nicht auf 0.5 GPU stellen ...
Ist es eigentlich auch möglich, dass nur eine WU mit GPU lauf 0.5 äuft? Bei 1.0 GPU spackt das System mir zu sehr :-)
 
Ich lasse es bei einer WU pro GPU. Die Auslastung ist dann zwar nicht 100%, aber zwei parallel lohnen kaum.
Also mit 1.0 GPU und 1.0 CPU läuft man am besten.
Der Appname ist notfalls aus der client_state.xml zu finden.

--- Update ---

<name>hsgamma_FGRPB1G</name>
 
Das ist leider ein kleines Missverständnis.
Ich wollte nur eine WU für die GPU "mit halber Kraft" laufen lassen.

Scheint aber so jetzt zu funktionieren:
<app>
<name>hsgamma_FGRPB1G</name>
<max_concurrent>1</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>1.0</cpu_usage>
</gpu_versions>
</app>
 
Das geht leider nicht. Die gpu_usage/cpu_usage Optionen sind hauptsächlich für den Scheduler wichtig, wieviele WUs er starten kann. Sobald die WU aber läuft, nimmt sie sich soviel sie effizient auslasten kann, das ist je nach Programmierung etc. dann auch mal nur 70-80%, bei einigen Projekten 99%.
 
Wie gesagt, das ist eine rein für den BOINC Scheduler relevante Information. Bei nvidia kann man im Programm nvidia-settings die GPU Last anzeigen lassen, das geht sicher bei AMD ebenso, oder über diverse Monitoringtools. Ich wäre doch arg erstaunt wenn sich dort nur konstant 50% CPU Last zeigen.
 
Natürlich funktionieren die Schalter, die sind auch nicht nur für den Scheduler.
mit gpu_usage 1 wird eine WU pro GPU gerechnet, mit 0.5 werden zwei gerechnet, mit 0.33 3 und 0.25 4 WUs!
Die cpu_usage zählt nur in ganzen (logischen) Kernen. Bei 1.0 also ein Kern pro GPU WU, bei <1 hat es keine Auswirkungen, außer dass kein Kern mehr reserviert wird; die App nimmt sich dann, was sie braucht.
 
seTTam will ja nicht mehrere WUs parallel laufen lassen, sondern die Last auf der GPU verringern.
Angenommen ich setze gpu_usage auf 0.25 und max_concurrent auf 1, dann dürfte nur eine WU laufen, dennoch wird diese mehr als 25% Last auf der GPU verursachen.

Womöglich reden wir nur aneinander vorbei ;-)
 
@seTTam
Mit dem GPU-Z kann die Auslastung der GPU ausgelesen werden.

Die letzten 11 % der Wuberechnung (Einstein: hsgamma_FGRPB1G) laufen (fast) komplett auf der Cpu. In der Zeit wird dann ein kompletter Core für die Berechnung und Fertigstellung der Wu benötigt. Eventuell rührt das Systemspacken daher.

0.5 gpu_usage in Kombi mit <max_concurrent>1</max_concurrent> macht nur Sinn, wenn gleichzeitig noch eine andere Anwendung parallel auf der der Gpu laufen soll.

1 gpu_usage ohne max_concurrent ist dasselbe. Mit ihr wird nur die Anzahl der parallelen Wus eingestellt. Sie sagt nichts über die tatsächliche Nutzung der Gpu aus. Sie kann von 1 % bis 100 % reichen.



<app_config>
<app>
<name>hsgamma_FGRPB1G</name>
<max_concurrent>1</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>1.0</cpu_usage>
</gpu_versions>
</app>
</app_config>

<app_config>
<app>
<name>hsgamma_FGRPB1G</name>
<max_concurrent></max_concurrent>
<gpu_versions>
<gpu_usage>1</gpu_usage>
<cpu_usage>1.0</cpu_usage>
</gpu_versions>
</app>
</app_config>

In beiden app_configs wird nur eine Wu berechnet. Die Berechnungszeiten sind gleich in Deinem Fall.
 
Zuletzt bearbeitet:
seTTam will ja nicht mehrere WUs parallel laufen lassen, sondern die Last auf der GPU verringern.
Angenommen ich setze gpu_usage auf 0.25 und max_concurrent auf 1, dann dürfte nur eine WU laufen, dennoch wird diese mehr als 25% Last auf der GPU verursachen.

Womöglich reden wir nur aneinander vorbei ;-)

Danke Koschi, das war das, wie ich es mir vorgestellt habe :-)
 
Einstein WU werden bei mir im Download abgebrochen. Hat jemand selbiges Problem?
 
Zurück
Oben Unten