11. Pentathlon 2020 - NumberFields@home (Speerwerfen)

Jupp, funktioniert!

Ich habe dann mal einen CPU-Kern geopfert:
<app_config>
<app>
<name>GetDecics</name>
<gpu_versions>
<gpu_usage>0.25</gpu_usage>
<cpu_usage>0.25</cpu_usage>
</gpu_versions>
<max_concurrent>8</max_concurrent>
</app>
</app_config>

Mit 4 WUs zieht die VII im Maximum 110W und bleibt dabei noch schön kühl.

Mal beobachten, wie es mit den Laufzeiten aussehen wird.

EDIT:

Die Laufzeiten sehen nicht gut aus, mehr als verdoppelt.
Nächster Versuch mit
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
 
Zuletzt bearbeitet:
Äh ja, mit 0,25 (also 4 WU) hätte ich nicht nur eine Verdopplung sondern fast eine Vervierfachung erwartet. Wenns nur eine Verdreifachung wäre, dann *great*
 
Funktioniert es, den CPU Anteil in der app_config.xml auf 0.25 zu senken? Soweit ich weiß nimmt sich eine GPU WU ohnehin so viel CPU Anteil wie sie will.
Nein, egal ob 0,001 oder 0,99 - es wird kein CPU-Kern dafür freigelassen. Damit kloppen sich 9 Threads um 8 Kerne. Aber von mir aus sollnse das tun.

und wie wäre es mit
1. Wurf mit allem was wir haben
2. Wurf auslassen und gehörig Bunkern
3. Wurf volle Rohre aus dem Stahlbeton
4. Wurf auslassen und die WUs unterm Teppich verstecken
5. Wurf den Flokati aus dem Fenster zwirbeln
Gefällt mir - auch die blumige Sprache. ;)
Wobei "1. mit allem" würde ja auch CPUs bedeuten - die haben bereits genug Rosetten bei mir.
 
Ich habe dann mal einen CPU-Kern geopfert:
<app_config>
<app>
<name>GetDecics</name>
<gpu_versions>
<gpu_usage>0.25</gpu_usage>
<cpu_usage>0.25</cpu_usage>
</gpu_versions>
<max_concurrent>8</max_concurrent>
</app>
</app_config>

Mit 4 WUs zieht die VII im Maximum 110W und bleibt dabei noch schön kühl.

Mal beobachten, wie es mit den Laufzeiten aussehen wird.

EDIT:

Die Laufzeiten sehen nicht gut aus, mehr als verdoppelt.
Nächster Versuch mit
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>

Zwischenstand:
Mit parallel Rosetta-Vollast sind die Laufzeiten sehr hoch. Für Betrieb Numbers und Rosetta muss man die WU´s für Rosetta begrenzen, sonst laufen die Numbers (opencl_amd) teils mehrere Stunden... GraKa auch nicht stabil bei 100% Auslastung.

Ich lasse jetzt Rosetta mal eine Zeit pausieren und beobachte das Ganze weiter.
Aktuelle Last auf der R VII bei stabil 100% und 1.800 MHz, 113W (1,018V Vcore)
 
Unter Win braucht meine 1070Ti @ 90 Watt @ OpenCL zwischen 2 und 20 Minuten, Auslastug ist bei 85%.
Unter Linux braucht meine 1050 @ 53 Watt @ Cuda 30 zwischen 4 und 22 Minuten, Auslastung ist bei 95%.
Linus mit Cuda ist also, wie zuerwarten war, deutlich effektiver.

Berechnet wird jeweils nur 1 WU, Rosetta läuft nebenbei auf Volldampf, 1 Thread/Kern ist aber freigehalten für die Grakas.
 
Meine 1050ti will nicht mehr als 35W.
 
Wieviel die 1050 real zieht weiß ich nicht, wo kann ich das unter Ubuntu sehen? Ich habe sie allerdings bei 53 Watt abgeregelt.
Die 1070Ti nimmt sich unter Windows allerdings auch nur um 80 Watt (bei 90 Watt abgeregelt).
 
Hat schon jemand die passenden Hosts-Einträge?
 
Zwischenstand:
Mit parallel Rosetta-Vollast sind die Laufzeiten sehr hoch. Für Betrieb Numbers und Rosetta muss man die WU´s für Rosetta begrenzen, sonst laufen die Numbers (opencl_amd) teils mehrere Stunden... GraKa auch nicht stabil bei 100% Auslastung.

Ich lasse jetzt Rosetta mal eine Zeit pausieren und beobachte das Ganze weiter.
Aktuelle Last auf der R VII bei stabil 100% und 1.800 MHz, 113W (1,018V Vcore)

Update:

Laufzeiten zwischen 10min und 22min für 50-70 Punkten.
So richtig effizient scheint mir die Test-App für OpenCL_AMD unter Windows noch nicht zu sein *noahnung*

Cuda30 unter Linux ist da wohl die Empfehlung...
 
Meine GTX750Ti unter Ubuntu kriegt keine Wuzen. Extra Profil ist angelegt, nur NV zugelassen. Hat im Moment überhaupt wer eine NV-Wuze zu laufen?
 
Meldung von Numberfields:

So 03 Mai 2020 17:29:29 CEST | NumberFields@home | Your current settings do not allow tasks from this project. Um dies zu beheben können Siedie Projekteinstellungen auf der Projektwebseite ändern.

Kann doch nicht sein, dass ich außer NV auch CPU erlauben muss? Das wäre ja ein Quatsch.

--- Update ---

eigentlich sind es ja vier Meldungen, also kann es auch sein, dass er wegen Universe nichts rausrückt, obwohl ich Universe schon angehlaten habe.

So 03 Mai 2020 17:29:27 CEST | NumberFields@home | Sending scheduler request: Requested by user.
So 03 Mai 2020 17:29:27 CEST | NumberFields@home | Not requesting tasks: don't need ()
So 03 Mai 2020 17:29:29 CEST | NumberFields@home | Scheduler request completed
So 03 Mai 2020 17:29:29 CEST | NumberFields@home | Your current settings do not allow tasks from this project. Um dies zu beheben können Siedie Projekteinstellungen auf der Projektwebseite ändern.


--- Update ---

Na gut, ich lasse erstmal alles, wie es ist. Vielleicht kommt ja später noch was rein.
Jetzt versuche ich das mal auf dem 3900X, der läuft unter Windows und hat immerhin eine GTX750 und zwei GT1030 an Board.

--- Update ---

O.K., der 3900X hat sofort welche gezogen und legt schon los. Jetzt muss ich mal schnell die Bunkereinstellungen eintragen, die Wuzen sind schon fats bei 15%.
 
Unter Windows gibt es nur Open CL Anwendungen, sowohl AMD als auch nVidia.
Unter Linux gibt es für nVidia CUDA 30 App, was auch schon recht veraltet ist.
Ich habe unter Linux 200 CUDA WUs am Wickel, mehr gibt das Projekt anscheinend nicht auf einmal heraus.
 
O.K., Bunkertore laufen gerade zu....

--- Update ---

Unter Windows gibt es nur Open CL Anwendungen, sowohl AMD als auch nVidia.
Unter Linux gibt es für nVidia CUDA 30 App, was auch schon recht veraltet ist.
Ich habe unter Linux 200 CUDA WUs am Wickel, mehr gibt das Projekt anscheinend nicht auf einmal heraus.

k.A. aber das mag das Problem sein, ich habe den 415er Treiber genommen. Knn der das alte zeugs überhaupt noch?
Dann versuche ich mal die RX570 im 3700X. Brauche ich aber noch ein neues Profil.
 
Ich habe den 440.82 am laufen, sollte also kein Problem sein.
CUDA musst Du aber gesondert zum nVidia-Treiber installieren, wenn ich mich richtig erinnere.
 
Ah. O.K. das ist dann wieder wie ne 4,5m hohe Eskaladierwand. Für mich nicht machbar. (Linuxdau)

Deshalb ging das unter Windows auch sofort. Da ist das Bestandteil des Treibers.
 
Das sollte eigentlich schon reichen:
Code:
sudo apt-get install nvidia-cuda-dev  nvidia-cuda-toolkit
[/COLOR][COLOR=#224400][FONT=Consolas]sudo apt-get install cuda[/FONT][/COLOR][COLOR=#000000]
 
Zuletzt bearbeitet:
Gabs nicht noch ein Boinc-Unterpaket für GPU-Anwendungen?
 
Das ist mir nicht bekannt. *noahnung*
 
Ich war eine Weile beschäftig, weil ich dieser Anleitung gefolgt bin. . Cuda 10.1 ist jetzt drauf, Treiber auch auf 440 erhöht und Numberfields auf GTX750Ti läuft.

Hat eine Weile gedauert, bis ich Versionen und Treiber geprüft hatte. Als ich sah, dass da eine Numberfields läuft, war daie nach ca. 10min schon bei >50%.

--- Update ---

BTW: Ist ja schön, dass es jetzt funzt, aber das war absoluter Blindflug und schon etwas freaky. Lieber ist mir das schon, wenn ich weiß, was ich tue. :-/

--- Update ---

Und nochmal BTW: Bis ich das eben geschrieben hatte, war die erste durch (15:30 min) und die zweite ist auch schon bei 50%. Oha.

--- Update ---

Hm. :-/ Das hat sich nicht gelohnt. 10,91 Cr für die Wuze, macht ca. 40Cr/h oder <1000Cr/d.
Dafür die ganze Aufregung? Dafür vergurke ich keine 60Watt für 24/7.

Ich lasse das jetzt durchlaufen und fertig. Nachgeladen wird da nicht.

--- Update ---

Nur zum Vergleich: Ein Thread des 3700X hat in der doppelten Zeit auch eine Wuze durch und kriegt 5Cr dafür.
Macht 80 Cr/h für den 3700X - bei ähnlicher Verlustleistung. *buck*

Nebenbei: Die Creditvergabe ist ja Wahnsinn...
 
Die GTX 970 macht ~3850/d und ~6350/d auf der 1660 Super. Hab aber je nur eine WU entfleuchen lassen. Verbrauch kann ich gerade nicht sagen, aber mehr als 60W sollten es sein.
 
Und noch schlimmer: Jede GPU-Wuze blockiert außerdem fast einen Thread/Kern.

--- Update ---

Die GTX 970 macht ~3850/d und ~6350/d auf der 1660 Super. Hab aber je nur eine WU entfleuchen lassen. Verbrauch kann ich gerade nicht sagen, aber mehr als 60W sollten es sein.

Naja, fast das 4-fache einer GTX750Ti. Scheint zu passen, aber auch da muss sie min. einen Kern blockieren. Der 3700X sollte dann auch etwa da liegen, wo die GTX970 liegt.
Wenigstens müssen die andern genauso bescheiden dran sein. *buck*
 
Zurück
Oben Unten