Optimierte MilkyWay@home Applikation

Vielleicht bin ich zu müde, aber ich kanns nicht runterladen ... der läd nur 0 bytes und meckert dann das unbekannte Format an.

Naja, ab ins Bett

Alex
 
Vielleicht bin ich zu müde, aber ich kanns nicht runterladen ... der läd nur 0 bytes und meckert dann das unbekannte Format an.
Hmm, der Filehoster hat wohl gerade ein paar Probleme. Auch neu hochladen hat nichts gebracht. Na da habe ich einfach einen anderen genommen. Also jetzt sollte das gehen.
 
Version 0.19b installiert und das zeigt er an...
Running Milkyway@home ATI GPU application version 0.19 by Gipsel
CPU: Intel(R) Core(TM)2 Quad CPU Q9550 @ 2.83GHz (4 cores/threads) 3.39999 GHz (417ms)
CAL Runtime: 1.3.158
Found 1 CAL devices
Device 0: ATI Radeon HD 4800 (RV770) 512 MB local RAM (1855 MB cached + 1855 MB uncached remote)
GPU core clock: 625 MHz, memory clock: 993 MHz
800 shader units organized in 10 SIMDs with 16 5-issue VLIW units each supporting double precision

Calculated about 1.2268e+012 floatingpoint ops on GPU, 6.18221e+007 on FPU.
Calculated about 1.1352e+009 floatingpoint ops on FPU (stars).
WU completed. It took 10.6705 seconds CPU time and 130.992 seconds wall clock time @ 3.4 GHz.

Sieht soweit gut aus.
 
Zuletzt bearbeitet:
Hmm, der Filehoster hat wohl gerade ein paar Probleme. Auch neu hochladen hat nichts gebracht. Na da habe ich einfach einen anderen genommen. Also jetzt sollte das gehen.
So jetzt bekommst Du nen Bug Report von der eh nicht unterstützten RV730:
CAL Runtime: 1.3.145
Found 1 CAL devices
Device 0: ATI Radeon HD 4600 (RV730) 512 MB local RAM (1855 MB cached + 1855 MB uncached remote)
GPU core clock: 800 MHz, memory clock: 250 MHz
320 shader units organized in 8 SIMDs with 8 5-issue VLIW units each

7 Stream Allocation : Double precision not supported on underlying hardware
Stream Allocation : Failed to create buffer
Stream Allocation : Double precision not supported on underlying hardware
Stream Allocation : Failed to create buffer
Memory Clock wird falsch angezeigt, aber vielleicht war der runtergetaktet, sollten 1100 sein.
Naja vielleicht nur irgendein RV730 Problemchen, also erstmal unwichtig :)

ciao

Alex
 
Moin ,
wenn Ich 32-Bit Version unter XP versuche zu starten kommt kurz das Fenster und beendet sich Sofort wieder .

Code:
Can't set up shared mem: -1
Will run in standalone mode.
Running Milkyway@home ATI GPU application version 0.19 by Gipsel
Couldn't find input file [astronomy_parameters.txt] to read astronomy parameters.
APP: error reading astronomy parameters: 1
 
so ich teste auch nochmal ;D mit der neuen app
 
So jetzt bekommst Du nen Bug Report von der eh nicht unterstützten RV730:

Memory Clock wird falsch angezeigt, aber vielleicht war der runtergetaktet, sollten 1100 sein.
Naja vielleicht nur irgendein RV730 Problemchen, also erstmal unwichtig :)
Na das mit dem Speichertakt würde ich erstmal nicht so ernst nehmen. Dafür liest er die Organisation der Shader richtig aus (8 SIMDs).
Moin ,
wenn Ich 32-Bit Version unter XP versuche zu starten kommt kurz das Fenster und beendet sich Sofort wieder.
Also entweder muß man das wie jede optimierte App in das entsprechende BOINC-Verzeichnis packen oder man kopiert die entsprechenden Eingabefiles (umbenannt in search_parameters.txt, astronomy_parameters.txt und stars.txt) in das gleiche Verzeichnis wie die App. Dann läuft es auch standalone.


Also erstmal danke an alle! Scheint ja soweit zu funktionieren. Hat jemand auch mal eine X2 oder ein anderes System mit 2 ATI GraKas? Und wenn jemand mit einem 780G oder 790GX Board mal zusätzlich einen Monitor an die integrierte Grafik hängt, wäre das auch mal ganz interessant ;)
 
Wie mit der internen Grafikkarte geht die GPU App auch? Ich hätte einen 780G aber mit einer HD 3870.;) und WinXP32bit. Leider schon auf den neuen 9.2 ATI Treiber aktualisiert.
 
Man kann den 9.2er Treiber verwenden, muss jedoch im System32 Ordner die neuen CALS umkopieren, etwa in CMD:

im Windows\System32 Ordner - 32Bit Windows
copy aticalcl.dll amdcalcl.dll
copy aticaldd.dll amdcaldd.dll
copy aticalrt.dll amdcalrt.dll

im Windows\System32 Ordner - 64Bit Windows
copy aticalcl64.dll amdcalcl64.dll
copy aticaldd64.dll amdcaldd64.dll
copy aticalrt64.dll amdcalrt64.dll

im Windows\SysWow64 Ordner - 64Bit Windows
copy aticalcl.dll amdcalcl.dll
copy aticaldd.dll amdcaldd.dll
copy aticalrt.dll amdcalrt.dll

---------------------------------


internen Grakas:
evtl. geht es mit den R(V)8xx aber nicht mit den 700er wie 780G
 
Hi,
Ich habe vor etwa 3 Tagen mal ein M3A78-EMH HDMI mit AMD 780 /SB 700 und Integrated ATI RV610 Graphics ausprobiert. Ist eine ATI Radeon HD3200. Treiber 8.12 und 9.1 , Win XP 64 bit
Die Wu brechen sofort mit Berechnungsfehler ab, ich konnte aber die fehler leider nicht kopieren da sie zu schnell vom Server verschwanden.
Ansonsten eine super Arbeit die einige von euch hier machen das muß man neidlos anerkennen.

Momentan läuft eine MSI Radeon 3850 (leider nur 256 MB RAM). Durch das wenige Ram laufen auch nur max. 5 Wu stabil und die Zeiten sind bei etwa 23 -36 sec/ WU.ergibt aber trotzdem ca. 24 K amTag
Wen ich die WU anzahl erhöhe die gleichzeitig berechnet werden sollen gibts nach ca 30- 40 Wu einen VPU? Fehler.
Mainboard ist ein Asrock 939 Dual Vsta mit einem X2 4400+ und Win XP 64bit und CCC 8.12

Grüße von Team SG und Glückwunsch zur #1 bei Phom@home
Michael
 
Hallo

Ich schliesse mich hier Indi an und frage genauso neugierig: Gibt es allenfalls mal eine App für OS X (Kann sowohl eine GPU-App sein, als auch für die 8 Prozis mit SSE 3 in meinem Mac Pro early '08 V1.3).
Und wenn obige Frage mit einem vollen und lautstarken "JA" beantwortet werden kann, wann könnte man mit einer solchen App rechnen?
Was für Voraussetzungen müssten geschaffen werden, dass das unter OS X (10.5.6, allenfalls 10.6 Snow Leopard mit hoffentlich OpenCL) zum Funktionieren kommt?

Und was ist mit meiner Mac OS X Version für PPC Systeme :] :-*

@Crunch3r: Hast du da vielleicht die Möglichkeit was zu basteln? Oder Kontakte zu jemandem der es kann? Hab hier zwei Systeme (g4 und g5) die sich mit der originalen app abrackern.

Danke für Info!! :-)
 
Mal eine bescheidene Frage!
Wann kann man denn mal einen GPU-Clienten für nvidia Karten erwarten?

Die Milkyway Betreiber sind dran. Wann die App letztendlich fertig ist....abwarten.
Wie der Duke sagen würde..."When it’s done!";D
 
Die Milkyway Betreiber sind dran. Wann die App letztendlich fertig ist....abwarten. ....
Ich dachte die Praktikantin von Gipsel wäre dran? *noahnung* Oder verwechsele ich da was?

@[SG]MichaelR.

Danke ;)
 
Hab auch mal MilkyWay getestet mit meiner 3850er, es werden 4 gleichzeitig berechnet, jedoch werden während dieser Zeit meine Poem angehalten, ich dachte das MilkyWay nur auf der GPU gerechnet werden. Habe einen x2 6000+ / WinXP 32-bit / 4GB-Ram
 
Wie mit der internen Grafikkarte geht die GPU App auch? Ich hätte einen 780G aber mit einer HD 3870.;)
Die Berechnung nicht, aber wenn die integrierte Grafik ebenfalls aktiviert ist (man muß wohl auch einen Monitor dranhängen, weil die sonst unter Win wieder deaktiviert wird), sollte er 2 GraKas erkennen ;)

Rechnen tut er momentan aber immer auf der ersten Karte im System. Also aufpassen, daß als Primary Adapter im BIOS die PCI-Express-Karte eingetragen ist, wenn Du den 780G aktivierst.
.
EDIT :
.

Hab auch mal MilkyWay getestet mit meiner 3850er, es werden 4 gleichzeitig berechnet, jedoch werden während dieser Zeit meine Poem angehalten, ich dachte das MilkyWay nur auf der GPU gerechnet werden. Habe einen x2 6000+ / WinXP 32-bit / 4GB-Ram
Es wird momentan ein Kern unabhängig von der Anzahl der MW-WUs belegt. Den Rest kann man im Prinzip ganz normal nutzen.
Aber angeblich kommt der Scheduler von neueren BOINC-Versionen (6.x) nicht so richtig mit der WU-Beschränkung bei MW klar. Er schaltet dann immer zwischen komplett MW und komplett andere Projekte um. Das tritt wohl auch mit den CPU-Applikationen auf. Die 5.x haben anscheinend weniger Probleme damit *noahnung*
 
Wie sieht es eigentlich mit NVidia-Karten aus? Mal so ganz unverbindlich angefragt...
 
Eine Nvidia CUDA-App wird es wohl für MW nicht geben, da die Geforce Karten bei der hier benötigten Double-Precision Berechnung aufgrund ihrer Architektur kein Land gegen die Radeon Karten sehen. Aktuelle Radeon Karten haben bis zu 800 StreamProzessoren, die Nvidia Karten hingegen bei den GTX "gerade einmal" 240...
 
Eine Nvidia CUDA-App wird es wohl für MW nicht geben, da die Geforce Karten bei der hier benötigten Double-Precision Berechnung aufgrund ihrer Architektur kein Land gegen die Radeon Karten sehen. Aktuelle Radeon Karten haben bis zu 800 StreamProzessoren, die Nvidia Karten hingegen bei den GTX "gerade einmal" 240...
Ist MW nicht Singe Precision? Und von CUDA habe ich gar nicht gesprochen.
Cuda habe ich mal beim Video transcodieren für Filter verwendet, aber der Ansatz mit dem Extra-Treiber ist mir unsympathisch.
 
Hmm, ist das im normalen Treiber drin? Damals (Herbst 2008) musste ich (glaube ich) zusätzlich zum normalen Treiber noch was installieren.
 
Inzwischen ist Cuda voll im Treiber integriert, man muss ja für Physx oder GPUGRID auch nichts extra installieren.
 
Eine Nvidia CUDA-App wird es wohl für MW nicht geben, da die Geforce Karten bei der hier benötigten Double-Precision Berechnung aufgrund ihrer Architektur kein Land gegen die Radeon Karten sehen. Aktuelle Radeon Karten haben bis zu 800 StreamProzessoren, die Nvidia Karten hingegen bei den GTX "gerade einmal" 240...

Das ist so nicht ganz korrekt. Travis hat gesagt, es wird dran gearbeitet. Sie hätten da eine/n Praktikant/in, welche/r sich darum kümmert.
Ich zitiere mal: "Yeah hopefully within the next week or two we'll have an alpha CUDA application for you guys to crash"

Das die ATI Karten effektiver bzw.schneller sind bei Double Precision stimmt allerdings.
 
Zuletzt bearbeitet:
Das CUDA / nV Thema hat gipsel schon vor ein paar Seiten ausgiebigst behandelt ... Fragen erübrigen sich eigentlich :)

ciao

Alex
P.S: Der 800 zu 240 Vergleich ist (für double precision) falsch :)
 
Zurück
Oben Unten