3. BOINC Pentathlon - Collatz Diskussionsthread

thorsam

Grand Admiral Special
Mitglied seit
05.04.2003
Beiträge
2.722
Renomée
890
Tut mir einen Gefallen, und nutzt diesen Thread, sonst diskutieren wir bald 5 verschiedene Projekte, auf 300 Seiten und keiner findet mehr was wieder. Danke.

Hier erstmal der link zum Sammelthread "BOINC Pentathlon: kleine Hilfestellung", der in Form eines Wikis laufend gepflegt wird/werden kann:

http://www.planet3dnow.de/vbulletin/showthread.php?t=404735




Wie aktuell sind die power-apps http://boinc.thesonntags.com/collatz/power_apps.php ?

Für NVIDIA-Karten nicht so, aber es gibt zur Zeit nichts neueres.
Immerhin erhöhen sie die Auslastung der Karten auf über 95%.


Wenn ich hier etwas eintragen bzw. verlinken soll, bitte melden.
 
Zuletzt bearbeitet:
es scheinen ja eine menge leute zu bunkern ;)
innerhalb von 2 tagen hab ich knappe 300k pending aufgebaut, und das nur mit einer 6850
 
Ich habe hier jetzt schon mehrfach gelesen, daß die powerapps mittlerweile standardmässig mit vom Projekt versendet werden.

Mein Bünkerchen wird heute auch fertig. Morgen früh wird dann die Arbeit von fünf Tagen geflusht: 25 WUs xD
 
In der Regel wird Dir auf der Boinc Seite der richtige Client fürs BS zum Download vorgeschlagen. Ansonsten dran denken: auf der Collatzhomepage die CPU Nutzung deaktivieren!
 
Hab schon nur ATI-GPU ausgewählt. Denkmal 3x5850@900Mhz sollten schon was reißen in der Zeit. Mal sehen was da so rum kommt. Bis auf paar Runden BF3 könnnen Sie voll rechnen.
 
Habs mal hierher verschoben:

Hmmm, ich hab hier grad ein kleineres Problem:
Habe noch eine zweite (kleine) Grafikkarte gefunden und zugesteckt. Jetzt rechnet BOINC aber nur noch auf der und nicht auf der leistungsstärkeren ersten GPU *noahnung*

Im Unterverzeichnis "C:\ProgramData\BOINC" eine Datei Names cc_config.xml erstellen und folgendes hineinschreiben:

<cc_config>
<options>
<report_results_immediately>1</report_results_immediately>
<use_all_gpus>1</use_all_gpus>
</options>
</cc_config>

Boinc Neustart nicht vergessen ;)

Hab ich gemacht, funktioniert auch soweit, allerdings wird die schnellere Karte nur zu 60% ausgelastet. Die langsamere 100% gibts da noch nen Trick?
 
Ich bin nur etwas verwundert, das ich im BM sehe, das der client augenscheinlich mit CUDA 2.3 arbeitet,
obwohl der BM eine Fermi-Karte erkannt haben müßte.

Auf der verlinkten Seite, gibt es eine überarbeitete App mit CUDA 3.1.

Ich dachte, das NVIDIA mit seinen aktuellen Treibern bereits CUDA 4.0 einsetzt, und 4.1 demnächst rauskommt.

Die Tage hatte hier in Hannover noch einer von NVIDIA, etwas über CUDA 5.0 erzählt.
 
das ist mein Problem mit einer 550ti...

http://boinc.thesonntags.com/collatz/result.php?resultid=115067410

hat jemand eine Idee?

gruß

Nimm mal bitte einen älteren Treiber. Bei mir funzt der 285.62 tadellos. In den neueren Treibern von Nvidia ist ein Bug der die Rechenarbeit in kürzester Zeit abbrechen lässt.
.
EDIT :
.

Ich bin nur etwas verwundert, das ich im BM sehe, das der client augenscheinlich mit CUDA 2.3 arbeitet,
obwohl der BM eine Fermi-Karte erkannt haben müßte.

Auf der verlinkten Seite, gibt es eine überarbeitete App mit CUDA 3.1.

Ich dachte, das NVIDIA mit seinen aktuellen Treibern bereits CUDA 4.0 einsetzt, und 4.1 demnächst rauskommt.

Die Tage hatte hier in Hannover noch einer von NVIDIA, etwas über CUDA 5.0 erzählt.
Kann ja sein das Nvidia das macht, aber die App von Collatz muss dementsprechend ja erst überarbeitet werden.
Standard Apps:
Microsoft Windows (98 or later) running on an Intel x86-compatible CPU 2.03 (cuda23) 29 Sep 2009 3:20:20 UTC
Microsoft Windows running on an AMD x86_64 or Intel EM64T CPU 2.03 (cuda23) 29 Sep 2009 3:20:20 UTC
Microsoft Windows running on an AMD x86_64 or Intel EM64T CPU 2.05 (cuda31) 2 Feb 2011 7:48:09 UTC

Optimized Apps: (d.h. mit app_info.xml zum anpassen ans System)
collatz_2.05_windows_intelx86__cuda31.zip (Win32 CUDA) 2.04 nVidia/CUDA 3.1 08/27/2010 01:36 CDT
collatz_2.04_windows_intelx86__cuda23_v1.4.zip (Win32 CUDA) 2.04 nVidia/CUDA 2.3 05/20/2010 08:25 CDT
 
Zuletzt bearbeitet:
@ Sabroe SMC

thx es läuft mit Treiber 285.62!
Und nun brauche ich noch ne Lösung für das Problem, dass die Karte nur ca. 55% ausgelastet ist...

Danke!
 
Das Problem hab ich hier auch, aber mit ner Radeon 7750.
 
Benutzt ihr OpenCL-Apps? Wenn ja, dann dürfte das der Grund für die Auslastung sein.

Beim Grund kann ich nur raten. Schätze, dass es daran liegt, dass die CPU dann immer noch relativ viel zu tun hat und nicht so viel Code auf die CPU ausgelagert wird wie mit CUDA oder CAL.
 
Ich hab zwei Grafikkarten, die eine läuft mit 100% die andere mit 55%
Auch wenn ich Rosetta ausschalte wird nciht mehr befüllt.
 
Habs aktuell auf meinen Arbeits-PC laufen mit einer 6750 und dem Treiber 11.10 hab ~97% auslastung bei 700Mhz GPU-Takt. Für eine Aufgabe benötigt er ca 55 Minuten. Rennt alles soweit ganz gut. Bin mal gespannt wies dann zu hause läuft :D
 
Laufen denn beide mit CAL-App?
 
Benutzt ihr OpenCL-Apps? Wenn ja, dann dürfte das der Grund für die Auslastung sein.

Beim Grund kann ich nur raten. Schätze, dass es daran liegt, dass die CPU dann immer noch relativ viel zu tun hat und nicht so viel Code auf die CPU ausgelagert wird wie mit CUDA oder CAL.
Bei F!refly handelt es sich um Nvidia- CUDA. Keine OpenCL
 
ok Danke @ Sabroe SMC... puh ich hatte grad keine Ahnung, wo ich diese Info her bekomm.

gibt es ne APP_info.xml , das man 2 Wu rechnet, oder muss ich einen CPU Kern für die GPU abstellen??
 
Er zeigt bei Collatz nur eine an:
[2] CAL Capeverde (1024MB) driver: 1.4.1720
Das ist wenigstens die, die nicht voll mitläuft
 
ok Danke @ Sabroe SMC... puh ich hatte grad keine Ahnung, wo ich diese Info her bekomm.

gibt es ne APP_info.xml , das man 2 Wu rechnet, oder muss ich einen CPU Kern für die GPU abstellen??
Möglicherweise. Leider zieht mein BM nur die 2.03. Warum - KA
Kontrollier mal ob die Files in Deinem Boinc-Collatz Ordner denen in der App_info genannten entsprechen. Wenn ja, den Wert bei<count>X Punkt X</count> auf 0.5 ändern, abspeichern der app_info.xml in den Collatz Ordner, BM beenden und neu starten. Danach wirst Du ja sehen ob es funktioniert. Wenn nein - app_info entfernen, BM beenden und neu starten. Dann kanns jemand anderes mal versuchen.
<app_info>
<app>
<name>collatz</name>
</app>
<file_info>
<name>collatz_2.05_windows_intelx86__cuda31.exe</name>
<executable/>
</file_info>
<file_info>
<name>cudart32_31_9.dll</name>
<executable/>
</file_info>
<app_version>
<app_name>collatz</app_name>
<version_num>203</version_num>
<plan_class>cuda</plan_class>
<avg_ncpus>0.013</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<cmdline>L13 I8 S0</cmdline>
<file_ref>
<file_name>collatz_2.05_windows_intelx86__cuda31.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart32_31_9.dll</file_name>
</file_ref>
</app_version>
<app_version>
<app_name>collatz</app_name>
<version_num>204</version_num>
<plan_class>cuda</plan_class>
<avg_ncpus>0.013</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<cmdline>L13 I8 S0</cmdline>
<file_ref>
<file_name>collatz_2.05_windows_intelx86__cuda31.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart32_31_9.dll</file_name>
</file_ref>
</app_version>
<app_version>
<app_name>collatz</app_name>
<version_num>205</version_num>
<plan_class>cuda</plan_class>
<avg_ncpus>0.013</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<coproc>
<type>CUDA</type>
<count>1</count>
</coproc>
<cmdline>L13 I8 S0</cmdline>
<file_ref>
<file_name>collatz_2.05_windows_intelx86__cuda31.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cudart32_31_9.dll</file_name>
</file_ref>
</app_version>
<app>
<name>collatz</name>
</app>
</app_info>
man kann auch mit den Werten L13 I8 S0 in der cmdline mal bischen spielen.
Collatz 2.04 CUDA Optimized Application Readme
==============================================

There are 3 command line parameters that can be used to control the performance and resource utilization of the Collatz v2.04 CUDA application.

In the examples below, a sample workunit that is only 2% of the normal workunit size was used to calculate the times. All timings listed are for a 9800 GTX+ at stock speeds.

To override the default settings, edit the cmdline elements (each of them) in the app_info.xml file. The order of the parameters is not important. Do NOT put spaces between the parameter and the value. (e.g. L5 is OK, L 5 is not)

For example, to use the same settings as the default:
<cmdline>L5 I8 S1</cmdline>

To run as fast as possible (max GPU WUs per day)
<cmdline>L13 I8 S0</cmdline>

To run as fast as possible on both CPU and GPU:
<cmdline>L13 I8 S1</cmdline>

To run on a GPU with poor response:
<cmdline>L3 I5 S1</cmdline>

All 3 files (app_info.xml, collatz_2.04_windows_intelx86__cuda23.exe, and cudart.dll) get placed in the project folder. For XP the location is:
"c:\documents and settings\all users\application data\boinc\projects\boinc.thesonntags.com_collatz"

For Windows Vista, Windows 7, and Windows Server 2008, the location is:
C:\ProgramData\BOINC\projects\boinc.thesonntags.com_collatz

Note: ProgramData is a hidden folder by default so you will either need to unhide it or use the full location in Windows Explorer to access the folder.


Ix
Default Value: I8
Valid Values: I5 through I8
Purpose: Controls the number of items per loop. The setting represents the power of 2 that will be used for each dimension of the two-dimensional array of items being calculated. e.g. I5 = 2^5 rows by 2^5 columns = 32x32 = 1024 numbers calculated per loop and I8 = 2^8 rows by 2^8 columns = 65536 numbers calculated per loop. Values below 32 could be used but result in the GPU being only partially utilized. Values above 8 exceeds the amount of memory allowed per CUDA kernel. Using the parameters L13 I5 takes 257 seconds to complete the sample workunit. Using L13 I8 takes only 44 seconds. Anything below I7 drastically increased the run time and will require move GPU time to complete the same workunit.

Lxx
Default Value: L5
Valid Values: L1 through L13
Purpose: controls the number of loops per reduction. The higher the number, the better the GPU utilization and the faster the workunit will complete. Also, the higher the number, the less responsive the system will be. Machines which are dedicated crunchers will likely want to use L13. Machines used while crunching will want to use a value from 1-5. The lower the number, the higher the elapsed time will be. For example, a value of L1 runs at 73% GPU utilization and takes 67 seconds whereas L13 runs at 99% GPU utilization and takes 43 seconds. By comparison, the v2.03 application takes about 51 seconds. The value is actually the power of 2 that is used, so L3 = 2^3 = 8 loops per reduction. L13 = 2^13 = 8192 loops per reduction. There is about a 2% difference in run time and a 1-2% difference in GPU utilization using L5 verse L13 on a 9800 GTX+.

In general the more items per loop (Ix) and the more loops per reduction (Lxx) the faster the workunit will complete and the worse the video response will be.

Sxxxx
Default Value: S1
Valid Values: S0 through S4294967295
Purpose: controls the number of milliseconds to wait for the application to complete the loops and reduction. Setting the value to 0 will cause it to use CPU while waiting for the GPU to finish its calculations but will result in teh fastest elapsed time. It will not increase or reduce the GPU time needed. Settings from 1 to 10 will have little effect on the runtime if using many loops per reduction (e.g. L13) but will drastically reduce GPU utilization when using fewer loops per reduction (e.g. the stock setting of L3). For example, using S10 results in an elapsed time of 83 seconds with L3 and 44 seconds with L13. Note: Setting this to the max value will require 136 YEARS to complete a workunit.


Hints:
Old Slow CUDA crunchers:
For those with very slow graphics cards wich have poor video response using the stock settings, a low setting for L will likely be all that is needed to improve response (L1 or L2). You may also try using a lower setting for I (I6 or I7) in combination with the lower L setting.
 
Zuletzt bearbeitet:
Danke @ Sabroe SMC,
ich habe es probiert, collatz einen kplt. CPU Kern zu geben... hat aber keine Auswirkungen auf die GPU Last.
ne app info habe ich auf der Maschine noch nicht. Und die, die Du verspoilert hast , hat ganz andere Files, ich habe nur "mini..." irgendwas...
das mit der App info mach ich morgen mal, die Maschine steuere ich über T-Viewer... und solche Experimente mach ich lieber live ;)
 
Zuletzt bearbeitet:
welcher Treiber braucht es für eine hd4k? mein jetziger verschrottet jede wu, Chip ist r710 oder so.
 
Ich habe mich heute ja schon einige Zeit mit meiner HD4870 gespielt. Sie wird jetzt mit dem 12.4 wie zu erwarten ausgelastet (>95%), aber mit dem Workaround, dass ich über das Vision Engine Control Center im Graphics Overdrive manuell die Takte eingestellt habe, da er sonst bei den Idle-Takten (200MHz GPU Takt statt den vollen 750MHz) geblieben ist. WUs wurden bisher nur bei der Treiberinstallaion geschrottet, aber der Grafiktreiber kack öfter ab, wenn man am PC was macht (sonst bisher nicht) - aber auch das schrottet er die WU nicht sondern man muss nur den BM neu starten, weil sonst die GPU nicht ausgelastet wird.
 
Frage an die Profis:

Morgen mach ich den Bunker für Rosetta und Collatz leer, d.h. ich könnte auf BM 7.0.25 (aktuell: 7.0.24) und Catalyst 12.4 (aktuell 12.3) gehen.
Bringt das was oder kann man es lassen?
 
Die 7000er-Serie soll vom 12.4 bei GPGPU schon profitieren. Irgjmd. hat das mal mit Zahlen belegt, finde ich aber atm nicht.
 
Zurück
Oben Unten