11. Pentathlon 2020 - NumberFields@home (Speerwerfen)

Dadurch das letztes Jahr es ein reines CPU-Projekt war, helfen uns die Zahlen wohl nicht weiter bei der Einschätzung,
wie weit wir dieses Jahr werfen können.

Gibt es bei NumberFields ein WU-Limit?

Der Wetterbericht macht mich auch nicht schlauer.

Es ist jetzt schon allein mit den CPU-Projekten knuffig warm in dem 9 m²-Raum.
 
Wieviel die 1050 real zieht weiß ich nicht, wo kann ich das unter Ubuntu sehen? Ich habe sie allerdings bei 53 Watt abgeregelt.
Die 1070Ti nimmt sich unter Windows allerdings auch nur um 80 Watt (bei 90 Watt abgeregelt).
Sagte mir das Messgerät in der Steckdose. ;)
Ich hatte nachgemessen, weil mir 37°C GPU bei Vollast etwas wenig vorkamen.

Meine GTX750Ti unter Ubuntu kriegt keine Wuzen. Extra Profil ist angelegt, nur NV zugelassen. Hat im Moment überhaupt wer eine NV-Wuze zu laufen?
Also ich habe die üblichen 200 Stück auf den Nvidia-Karten in Bearbeitung.

Unter Windows gibt es nur Open CL Anwendungen, sowohl AMD als auch nVidia.
Unter Linux gibt es für nVidia CUDA 30 App, was auch schon recht veraltet ist.
Ich habe unter Linux 200 CUDA WUs am Wickel, mehr gibt das Projekt anscheinend nicht auf einmal heraus.
Das mit CUDA30 kommt mir aber merkwürdig vor - denn wenn es den 440er Treiber braucht, dann wäre es eigentlich CUDA102. Denn CUDA30 müsste mit 10 Jahre alten Treibern laufen.

k.A. aber das mag das Problem sein, ich habe den 415er Treiber genommen. Knn der das alte zeugs überhaupt noch?
Nee, 440. Aber der lässt sich ja mit einem Mausklick in den Systemaktualisierungen einrichten. Unter alternative Treiber, wenn ich mich nicht irre.
 
Bitte nicht das volle CUDA von Nvidia ziehen und installieren, es wird nicht gebraucht, ist nur unnötig komplex. Nvidiatreiber aus der Paketverwaltung und das oben genannte boinc-nvidia-cuda Paket, fertig ist die Hütte.

CUDA SDK etc braucht man nur wenn man selbst CUDA Anwendungen entwickelt.
 
Wieviel Credits gibts denn für eine WU? Meine Nano macht zwei WUs im Schnitt in 35 Minuten fertig. Würde mich schon interessieren ob die was reißt. Die 7970 bleibt aber vorerst im Schrank, es sei denn es kommen noch mal Minusgrade *buck*
 
Meine 1070ti braucht ca. 10 Minuten und bringt dabei 80credits. Hab aber erst eine WU hochgeladen, dann Klappe zu.
Aber die Laufzeiten schwanken stark.
 
Ja, ich habe CUDA 10.2 am laufen, die App selber verwendet den Namen nach aber nur CUDA 3.0.
 
Die OpenCL-App ist wirklich nicht sehr gut optimiert. Ich konnte mit zwei aktiven WUs sogar noch halbwegs spielen. FPS gingen von 65 auf 40 runter... War natürlich nur ein Test, gespielt wird nicht im Penta *buck* Der Vorteil ist aber, dass ich auch auf meinem Arbeitsrechner noch flüssig 3D-CAD arbeiten kann mit einer WU im Hintergrund. :)
 
Da habe ich gestern die Numberfields auf dem i7-4790T/GTX750Ti gestoppt (no new work) und das Tor offen gelassen, weil sich 10Cr für eine WU eh nicht lohnen würde. Eben schaue ich in unsere Stats, krieg kugelrunde Augen und schaue danach bei Numberfields nach Ergebnissen... Da haben die mich ja verarscht!
Da gibts ja doch irgendwas zwischen 20 und >100Cr für eine WU. Die eine GTX hat seit gestern fast 2.700Cr geschafft. Das war fies. *motz*

So. Tor ist jetzt zu. Das haben die davon!
 
Ich denke mal ich lasse meine VII auch mitrechnen, alles andere wäre ethisch nicht vertretbar :D

Wenn ich auf der CPU gleichzeitig Rosetta rechne kann ich die WUs der beiden Projekte ja immer gleichzeitig in die freie Wildbahn lassen, das tut ja dem Marathon nicht weh und ich habe weniger Bunkergefrickel. Oder?

--- Update ---

Hat das Projekt gerade keine OpenCL-WUs oder was da los? :(
 
Test WUs erlauben, sonst darf AMD unter Win nicht mitspielen
 
Ist das fies :D

Okay, nächste Frage, was ist an meiner app_config falsch? Hab die soweit von Einstein letztes Jahr übernommen, da hat noch alles gepasst.

Aber jetzt erzeugt der Client damit zwei mal 0.97 CPU + 1 GPU

Code:
<app_config>
<app>
<name>GetDecics</name>
<max_concurrent>2</max_concurrent> //2 wus
<gpu_versions>
<gpu_usage>0.5</gpu_usage> // gpus pro wu
<cpu_usage>1</cpu_usage> //cpu pro wu
</gpu_versions>
</app>
</app_config>
 
Wenn das noch alte WUs sind, dann stimmt die Angabe in Klammern erstmal nicht.
So lange 2 WUs gerechnet werden, ist aber alles i.O.
 
Test WUs erlauben, sonst darf AMD unter Win nicht mitspielen

Danke. Jetzt kriegt meine RX570 auch welche. Wer kommt denn da auf Testanwendungen (koppschüttel).

--- Update ---

Ob sich das lohnt, weiß ich nicht. Scheint deutlich langsamer zu sein als eine WU auf GTX750Ti cuda30 unter Linux. Mal sehen, was die hier abwirft.

--- Update ---

Nunja, die RX brauche ich dort nicht. Für 1,345.90s --> 41.79Cr.
Da sind die kleinen NV-Karten sogar noch im Vorteil.
Aber man muss es ja mal ausprobieren.
 
Die Laufzeiten sind bei dem Projekt leider seeeehr variabel und die ATI App noch im Beta Status.
 
Ja, deshalb ja Test-WU, aber wenn eine RX570 einer GTX 750Ti nicht einmal Paroli bieten kann, brauchts da noch etwas. Meine Begeisterung hält sich noch in Grenzen.
 
Mal ehrlich, angesichts der Streuung bei den WU Laufzeiten ist es ohnehin mehr als schwierig da überhaupt was zu vergleichen.
Bereits bei den CPU WUs habe ich hier abartige Laufzeitunterschiede (nach 15 Minuten zwischen 3% und 80% Fortschritt) und bei den GPU WUs war es bei meinem Testlauf mit den Pro Duos und den VIIs nicht wirklich besser. Die GPU WUs waren zwar schneller aber bereits der ungewöhnlich geringe Strombedarf trotz angeblicher Vollauslastung der GPU zeigte das sie alles andere als optimal genutzt werden.
 
Ich gebe zu, dass ich nichtmal nach Auslastung/Temperatur/etc geschaut habe. Morgen bin ich klüger, weil ich die schon geladenen WU natürlich durchlaufen lasse.

--- Update ---

Nur mal ganz grob für die RX570:

Power schwankt zwischen 50 und 80W.
GPU-Last sieht aus wie ein Streifendiagramm. Zwischen 20 und 100% alles vertreten.
Temps: 61°C

Eigentlich ein typischer Fall für zwei oder mehr WU parallel. Aber nicht, wenn jede WU auch noch einen ganzen Kern/Thread benötigt. Wirklich nicht.
 
Zuletzt bearbeitet:
Ich kick morgen noch die RX 580 an. Die wollte heute irgendwie nicht. Jetzt geht sie in den anderen Rechner, ich glaub das NT ist zu schwach :(
 
Das Problem ist ja auch das es sich rein rechnerisch in meinen Augen nicht wirklich rentiert.
Die WUs laufen auf der VII zwar durchschnittlich 3-4x so schnell wie auf dem 1950X allerdings sind dann für die GPU ca. 100W fällig und in der TDP des Rippers stecken eben auch 32 Threads. Er bekommt pro Watt also dennoch mehr WUs fertig. Ein eher suboptimales Ergebnis wie ich finde.
 
Sehe ich auch so. Die VII wird deshalb keine Numberfields rechnen.
 
Das ist leider ein recht schwieriges Thema denn auch bei den anderen Kandidaten sieht es nicht so wahnsinnig rosig aus.
Die GT1030 GDDR5 die dem Rechner mit dem Ryzen 9 3950X zur Seite steht ist ca. so schnell wie einer der 32 Threads der CPU, ich habe aber so meine Zweifel das sie dabei nur 4W zieht. (1/32 von 130W)
 
Naja, bevor die Karten gar nichts machen, rechnen sie bei mir dann schon mit, Effizienz hin oder her.
Schneller als ein CPU-Kern sind sie allemal.
 
Meine beiden GT1030 definitiv aber bei den beiden GPU Crunchern werde ich morgen mal schauen in wieweit ich sie bei diesem Projekt nun wirklich mitrechnen lasse. *suspect*
 
Zurück
Oben Unten