10. Pentathlon 2019 - Einstein@home (Querfeldein)

Ja hat sich geklärt, bin jetzt auf unter 20min.

Ich denk mal da soll die iGPU nicht benutzt werden?

in die cc_config:
<ignore_ati_dev>X</ignore_ati_dev>

für nivida anpassen und das X durch die GeräteID (wird von Boinc vergeben) ersetzen.
 
Zuletzt bearbeitet:
Ne, ich hab noch den 18.12 drauf
 
Es werden auf jeden Fall auf der Nano, als auch auf der RX580 jetzt Berechnungen ausgeführt. Ich fass da erstmal nix an *buck*

Wenn es dich beruhigt, bei mir sehen RX 580 und 7970 im BM so aus:

Code:
07.05.2019 21:21:42 |  | OpenCL: AMD/ATI GPU 0: AMD Radeon R9 200 / HD 7900 Series (driver version 2766.5, device version OpenCL 1.2 AMD-APP (2766.5), 3072MB, 3072MB available, 4096 GFLOPS peak)
07.05.2019 21:21:42 |  | OpenCL: AMD/ATI GPU 1: AMD Radeon R9 200 / HD 7900 Series (driver version 2766.5, device version OpenCL 2.0 AMD-APP (2766.5), 4096MB, 4096MB available, 6290 GFLOPS peak)

Wobei GPU 1 die 580 ist. Wechsel ich die Karten auf dem Board, habe ich zwei 580 im BM. Passiert mit den Treibern 18.x und 19.x Mit 17.x werden sie zwar korrekt angezeigt, sie behindern sich dann aber gegenseitig. So funktioniert es jedenfalls und das genügt mir :)

Das Problem hab ich aufm Huawei Matebook auch.
Welcher Treiber? 19.4.1?

Schau mal in den BM Meldungen, ob die gleichen GraKas mehrfach mit verschiedenen Treiberversionen erkannt werden. Hatte ich vor einiger Zeit gehabt. Es waren zwei Treiber gleichzeitig aktiv (allerdings fiel das nur im BM auf). Da half eine Deinstallation und saubere Neuinstallation der Treiber. Oder etwas aufwändiger mit exclude_gpu in der cc_config.
 
Zuletzt bearbeitet:
Wenn es dich beruhigt, bei mir sehen RX 580 und 7970 im BM so aus:

Code:
07.05.2019 21:21:42 |  | OpenCL: AMD/ATI GPU 0: AMD Radeon R9 200 / HD 7900 Series (driver version 2766.5, device version OpenCL 1.2 AMD-APP (2766.5), 3072MB, 3072MB available, 4096 GFLOPS peak)
07.05.2019 21:21:42 |  | OpenCL: AMD/ATI GPU 1: AMD Radeon R9 200 / HD 7900 Series (driver version 2766.5, device version OpenCL 2.0 AMD-APP (2766.5), 4096MB, 4096MB available, 6290 GFLOPS peak)

Wobei GPU 1 die 580 ist. Wechsel ich die Karten auf dem Board, habe ich zwei 580 im BM. Passiert mit den Treibern 18.x und 19.x Mit 17.x werden sie zwar korrekt angezeigt, sie behindern sich dann aber gegenseitig. So funktioniert es jedenfalls und das genügt mir :)

Code:
07.05.2019 22:45:50 |  | OpenCL: AMD/ATI GPU 0: Radeon RX 580 Series (driver version 2766.5, device version OpenCL 2.0 AMD-APP (2766.5), 4096MB, 4096MB available, 8192 GFLOPS peak)
07.05.2019 22:45:50 |  | OpenCL: AMD/ATI GPU 1: Radeon RX 580 Series (driver version 2766.5, device version OpenCL 2.0 AMD-APP (2766.5), 4096MB, 4096MB available, 6267 GFLOPS peak)
07.05.2019 22:45:50 |  | OpenCL: AMD/ATI GPU 2: Radeon RX 580 Series (driver version 2766.5, device version OpenCL 2.0 AMD-APP (2766.5), 4096MB, 4096MB available, 8192 GFLOPS peak)
07.05.2019 22:45:50 |  | OpenCL: AMD/ATI GPU 3: Radeon RX 580 Series (driver version 2766.5, device version OpenCL 2.0 AMD-APP (2766.5), 4096MB, 4096MB available, 6267 GFLOPS peak)

Bei mir haben sie sich eben noch verdoppelt ansonsten das gleiche ^^

Die Nano macht 2 WUs in ~15 Minuten, die 580 braucht ~25 Minuten. Laufen aber beide mit -50% weil es sonst auf 5 m² mit Dachschräge hier mit 36 Kernen und drei GPUs doch zu warm wird *oink*
 
Ram hochziehen bringen einiges bei Einstein, wenn ich mich recht entsinne.
Wenn Du Samsungspeicher hast tu es unbedingt. Der läuft am Besten.

kannst ja auch noch die timings im treiber auf level 2 stellen ^^

w141.PNG
 
Zuletzt bearbeitet:
Komischen Kram *noahnung*
Lustig, dass die Nano exakt die doppelten GFLOPS wie die 7970 haben soll. Dafür hat meine 580 stolze 23 mehr als Deine 8)
 
Bekommt ihr gerade WUs?
 
*noahnung* Schotten sind zu...
 
Ruhe bewahren, ich ziehe gerade neue WUs (mein Wettbunker ist durch, jetzt kommen frische, die müssen gleich auch für die Vega reichen dann), du bist gleich dran, bitte Nummer ziehen ;D

--- Update ---

521 Einheiten zusätzlich eingelagert (in paralleler BOINC Instanz unter Ubuntu), der Nächste bitte!
 
Damit habe ich jetzt 1510 Einsteine (= 5232150 Credit) auf Platte die frühestens am 12.05. (5 CPU Taks), Rest ab 14.05. ablaufen. Ich nehme mir mal fest vor die alle durchzurechnen und dann geschlossen hochzuladen.
 
Ich hab angeblich 2800 Stück jetzt. Hoffentlich finde ich die alle wieder, wenn sie fertig sind.
 
Ich bekomme keine neuen WUs, gibt es eine Zahl in der Config die ich ändern muss?
 
Ich habe nur den Cache auf 10 Tage gesetzt, sonst nichts geändert.
In der neu angelegten BOINC Instanz waren die vorraussichtlichen Laufzeiten auch 2-3x zu lang, trotzdem hat er mir reichlich WUs gegeben.
 
Log sagt

08-May-2019 00:46:43 [Einstein@Home] Sending scheduler request: Requested by user.
08-May-2019 00:46:43 [Einstein@Home] Not requesting tasks: too many uploads in progress
08-May-2019 00:46:44 [Einstein@Home] Scheduler request completed

Hab in der cc mal die max_xfers hochgeschraubt, hilft nichts

--- Update ---

Upload ist auf 0.01 wegen der militärischen Befestigungsanlagen
 
Mit dem Klischee müssen sie schon lange leben *rofl*

*buck*

BTT: das mit der zweiten (und dritten, und vierten) BOINC-Instanz funktioniert wirklich gut :D Gerade für GPU-Projekte, wo man nicht mit VMs hantieren kann, ist das sehr praktisch. Man darf nur nicht durcheinander kommen *chatt*
 
Ich bekomme keine neuen WUs, gibt es eine Zahl in der Config die ich ändern muss?

Vielleicht ist Dir das gleiche passiert wie mir mit der neuen Instanz unter Einstein?
https://www.planet3dnow.de/vbulleti...-Querfeldein?p=5238340&viewfull=1#post5238340
Schau mal auf der Projektseite, ob die neue Instanz im gleichen Profil (Work, Home, Generic, etc.) gelandet ist wie die bisherige!

Edit: ah, jüngeren Post nicht gesehen ;D Dann ist das Problem ja erkannt. Aber ganz Themaverfehlung war mein Beitrag auch nicht, denn hier könntest Du mit einer zweiten Instanz bunkern. Aber VOOOORSICHT, nix kaputtmachen am bestehenden Bunker *suspect*
 
Zuletzt bearbeitet:
Ich habe meine Intel GPU alle schon durch und mein GT730 läßt das System ganz schön ruckeln. Gibt es eine Einstellung das vielleicht nicht die ganze Leistung für Boinc drauf geht und er einfach länger braucht?
 
Mmhh, meine Vega56 hatte im Standard immer 4 WU in Arbeit. Musste sie per Appconfig zu 2 WU zwingen, weil bei 4 WU schnell mal eine hängen blieb, sobald etwas Grafiklast parallel kam.
<app_config>
<app>
<name>hsgamma_FGRPB1G</name>
<gpu_versions>
<gpu_usage>1</gpu_usage>
<cpu_usage>1</cpu_usage>
</gpu_versions>
</app>
</app_config>
 
Mist, bei einem System mit Radeon RX 580 hab ich mich per RDP eingeloggt. Nu rechnete die GPU nicht mehr :P Muss heute Nacht mal versuchen, das System neu zu starten und mich mit einem anderen Fernwartungstool einzuloggen. Windows-Maschine aus der Ferne neu starten *brrrrrr* Hoffentlich geht da nichts schief. *suspect*
 
Mit Teamviewer geht das eigentlich sehr gut.
 
Hat auch seine Aussetzer... nichts ist perfekt.
 
Oo ich glaub das mit dem level 2 vram timings im treiber hat tatsächlich performance gebracht oO 10-20 sec pro wu
 
Zurück
Oben Unten