Neues Projekt: Collatz Conjecture (3x+1)

Status
Für weitere Antworten geschlossen.
Okay, mein Fehler...!
 
Musste heute eine WU abbrechen... lief schon mehr als 17Stunden und stand bei ca. 9,5%

Scheint aber eine Ausnahme gewesen zu sein... seit dem läuf alles wieder ganz normal...
 
hier mal ein paar zahlen:

5870 default 850/1200

CC..........~ 10,0 min je wu.........760,31c.......7.630 je h........~ 182k tägl......100%
MW..........~ 1,5 min. je wu.........213,76c.......8.550 je h........~ 205k tägl......112%
DNETC...-~ 30,0 min. je wu......5.775,75c.....11.551 je h........~ 272k tägl......135%
 
Zuletzt bearbeitet:
hier mal ein paar zahlen:

5870 default 850/1200

CC..........~ 10,0 min je wu.........760,31c.......7.630 je h........~ 182k tägl......100%
MW..........~ 1,5 min. je wu.........213,76c.......8.550 je h........~ 205k tägl......112%
DNETC...-~ 30,0 min. je wu......5.775,75c.....11.551 je h........~ 272k tägl......135%
Schöner Vergleich! Aber die Sinnhaftigkeit von DNETC darf bezweifelt werden, oder?
.
EDIT :
.


Aber immerhin. Es wären für mich ca. 140 kCr mehr pro Tag (bei 2 HD5870)!
 
Das unterscheidet uns von den anderen Topteams;D
 
Dank neuem Notebook und verbauter HD5650 probiere ich jetzt mal collatz aus.

Stock-app oder auf der Collatz-seite verlinkte optimierte App?


Scheint sich so auf ~30 min einzupendel pro Wu.
 
kannst die Stock-App ohne Probleme laufen lassen ;)

Die Opt-App brauchst du nur falls du Veränderungen in der App-Info vornehmen willst.
 
Würde ja gerne, aber ohne Hardware macht das keinen Sinn ;)

Habe nur noch ein Notebook (mit ATI GPU *buck*) und einen kleinen Core2Duo.
 
Da hast dich mit den kalten Monaten aber verschätzt *bibber* ;)
 
Stimmt, der April war schon so schön warm, aber gut, dann muss halt die Spannung vom C2D etwas rauf *chatt* *greater*
 
kaufst du im herbst eigentlich wieder Grakas oder mal paar heizungen um die Bude zu wärmen ;D
 
Ahoi,
auf meinem Rechner mit 8800GTS512 rechnete ich bisher GPUGrid. Diesen habe ich nun von W2k auf openSuSe umgestellt. Leider belegt GPUGrid unter Linux einen kompletten Kern. Deshalb überlege ich, meine 5770 ein die Linuxkiste zu stecken und die GeForce in meinen Arbeitsrechner.
Vorraussetzung ist allerdings, dass Collatz nicht einen kompletten Kern belegt, sondern sich ähnlich wie unter Windows verhält. Habe keine Lust alles umzubauen, nur um dann zu sehen, dass es sinnlos war.
Erfahrungen?
 
Ahoi,
auf meinem Rechner mit 8800GTS512 rechnete ich bisher GPUGrid. Diesen habe ich nun von W2k auf openSuSe umgestellt. Leider belegt GPUGrid unter Linux einen kompletten Kern. Deshalb überlege ich, meine 5770 ein die Linuxkiste zu stecken und die GeForce in meinen Arbeitsrechner.
Vorraussetzung ist allerdings, dass Collatz nicht einen kompletten Kern belegt, sondern sich ähnlich wie unter Windows verhält. Habe keine Lust alles umzubauen, nur um dann zu sehen, dass es sinnlos war.
Erfahrungen?
Erfahrung mit Linux hab ich leider keine, aber ich kann mir nicht vorstellen daß Collatz unter Linux mehr CPU-Ressourcen braucht als unter Win. Aber gut man kann ja nie wissen.
Ich würde jetzt einfach mal behaupten daß es funzt ;)
.
EDIT :
.

kaufst du im herbst eigentlich wieder Grakas oder mal paar heizungen um die Bude zu wärmen ;D
hm, ich weiß noch nicht so ganz, so extrem wie diesen Winter mach ich es bestimmt nicht mehr, das war schon ein ganz schöner Akt, ich musste die Rechner ja auch erst kaufen/zusammenbauen bevor die Grakas kamen.
Aber 1-2 High-End Dual-GPUs dürfen es schon gerne wieder sein *yeah*
 
So, da ich jetzt endlich mal eine neue Grafikkarte habe (Radeon 5750), werde ich hier bei Collatz mitrechnen und euch unterstützen.

MfG

Kloputzer aka Fragman
 
Wie vor langer Zeit angekündigt, habe ich die Radeon 5770 nun unter Linux am laufen.
Als Anwendung nutze ich collatz_2.01_x86_64-pc-linux-gnu__ati14_r1.5_mgpu.tar.bz2 .
Selbstverständlich habe ich auch ein bisschen mit den cmdline-Parametern rumgespielt. Mit den Standardeinstellungen habe ich eine GPU-Auslastung von 93%-94%. Dies führt zu einer Laufzeit pro WU von etwa 1100 Sekunden. Zum Vergleich: Unter Windows benötigt eine WU etwa 690 Sekunden.
Nach Veränderung diverser Parameter (f15 b1 w0.95) liegt die Auslastung nun bei 96%-97% und ist somit identisch mit der Auslastung unter W7. Dennoch ist die Laufzeit mit gut 1000s erheblich länger...
Kurz zum Einfluss der Variablen: Nach Veränderung von f20 auf f15 stieg die Auslastung vom Ursprungswert auf etwa 95%-96%, die Senkung von w1.0 auf 0.95 brachte den restlichen Leistungsgewinn. Darüber hinausgehende Veränderungen (f10 und/oder w 0.5) erhöhten die Auslastung nicht mehr. Die Zuweisung von mehr Speicher (r50 statt r33.6 bei 1024MB gesamt verfügbaren Speicher) war ebenso nutzlos.

Nun aber das kuriosiste Problem: Das Pollingverhalten.
Mit b1 und b0 ist alles prima, die Auslastung beträgt die bereits genannten 97%. Laut Anleitung opfere ich mit der Variable "b-1" eine gewisse Menge an CPU-Zyklen, bekomme im Gegenzug aber ein Quäntchen mehr Durchsatz. Soweit die Theorie.
Praxis: b-1 sorgt dafür, dass die Auslastung der GPU auf 37% fällt.
Eine Erhöhung der Priorität auf p3 (maximum) ändert daran nichts.

Also: 1. Wieso ist die Anwendung unter Linux deutlich langsamer? 2. Wieso hat b-1 eine absolut gegenteilige Wirkung auf die Auslastung?

Rechner: C2D E8400, 4GB RAM, Radeon 5770, Catalyst 10.6, BOINC 6.10.36, openSuSe 10.3
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten