Optimierte MilkyWay@home Applikation

bei meinem V8 rechnen 4 MW und 6 Spin ;

zum Thema 9.3 : AMD will noch ne Lösung für das CAL Problem stellen - evtl. mit FakeAPI's die zur den neuen API's linken
 
Hi, ich bekomme den Grafikkatenclient irgendwie nicht zum laufen.
Zuerst hatte ich den Cat. 9.2 mit den 0.19d Client nach 1-15 Minuten meldetet sich der von CCC der VPU Recover und danach waren keine Berechnungen mehr möglich. Wenn ich VPU Recover deaktivierte fror das komplette System ein.

Einen Umstieg auf 0.19e brachte keine Änderungen.

Untertakten der Grafikkarte und des Grafikspeichers um 200MHz änderte das Problem nicht, die Grafikkarte wurde auch nicht zu heiß.

Nach einen Treiber update auf Version 9.3 schmiert jetzt Milkyway immer sofort ab mit der Meldung GPU nicht gefunden.
Code:
<core_client_version>6.4.7</core_client_version>
<![CDATA[
<message>
Unzul?ssige Funktion. (0x1) - exit code 1 (0x1)
</message>
<stderr_txt>
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
allowing 2 concurrent WUs per GPU
CPU: Intel(R) Core(TM)2 Quad CPU           @ 2.66GHz (4 cores/threads) 3.10898 GHz (611ms)

CAL Runtime: 1.4.227
Found 0 CAL device

No supported GPU found!

</stderr_txt>
]]>
(die drei atixxx.dll hatte und habe ich immer in amdxxx.dll umbenannt.)


Ich verwende eine ATI 3850 mit 256MB GDR3 RAM unter Windows XP64, für einen Treiber down grade kann ich mich nicht so recht begeistern.


Habt ihr Tipps wie ich Milkyway (stabil) zum laufen bekomme?
 
nur zur sicherheit, hast du sie nur umbenannt oder zusätzlich umbenannte kopien erstellt.?

Wow du bist aber schnell
ich habe umbenannte kopien erstellt ;-)
in \WINDOWS\system32\ die xx64.dll und in \WINDOWS\SysWOW64\ die xx.dll

Wobei ich glaube das SysWOW64 nicht nötig ist da bei einer erneuten Treiberinstallation die umbenannten Dateien nicht entfernt werden.
 
Zuletzt bearbeitet:
komisch, das sagt meine frau auch immer.
Naja da zu sag ich mal nix :-D
du hast die 6 dateien auch im gleichen system ordner. ?
Jup ich habe folgende Dateien in folgenden Ordnern:
Unter
..\system32\
amdcalcl64.dll
amdcaldd64.dll
amdcalrt64.dll
aticalcl64.dll
aticaldd64.dll
aticalrt64.dll

..\SysWOW64 \
aticalcl.dll
aticaldd.dll
aticalrt.dll
amdcalcl.dll
amdcaldd.dll
amdcalrt.dll
 
Schalte doch mal den CCC aus wenn dieser dazwischenfunkt.
Ich meine in der *.txt gelesen zu haben das die App. leichte Probleme haben kann wenn irgendwelche Programme Daten der Graka abfragen.

Ich hab am Anfang auch zu knacken gehabt.
Hab dann alles deinstalliert, den 8.12 installiert (ohne CCC, 9.1/2/3 gehen ja wohl auch) die App ins Verzeichnis kopiert und ab ging die Lutzi *noahnung*

Nur so am Rande zur Sicherheit:
Bevor du die App ins Verzeichnis kopierst mußt du Boinc komplett beenden.
Manager schließen und dann unter Start > Ausführen > net stop boinc ;)
 
Schalte doch mal den CCC aus wenn dieser dazwischenfunkt.
Der hat nicht dazwischen gefunkt, der hat mein System vor dem einfrieren gerettet, wenn ich den aus hatte half nur ein kalt Start. Aber momentan ist ja ein anders Problem das er meine Grafikkarte nicht findet...

Nur so am Rande zur Sicherheit:
Bevor du die App ins Verzeichnis kopierst mußt du Boinc komplett beenden.
Manager schließen und dann unter Start > Ausführen > net stop boinc ;)

Hatte immer den Boincmanager bendet (mit aktivierten häckchen bei "Stob running science applications when exiting the Manager").
 
Zuletzt bearbeitet:
@McSven@SETI-Ost

Welches System hast du: Vista oder XP?
 
manchmal schaltet Windows die Hardwarebeschleunigung der Grakas bei "Problemen" runter

Anzeige -> Einstellungen -> Erweitert -> Problembehandlung -> Hardwarebeschleunigung (für XP, Srv03)
 
Ich meinte eigentlich, wenn er XP hat steht in den aktuellen 9.3 Release Notes:

Known Issues Under the Windows XP Operating System
The following section provides a summary of open issues that may be experienced under the Windows XP operating system in the latest version of Catalyst™. These include:

* In this Catalyst 9.3 release, the Compute Abstraction Layer (CAL) driver will not function properly under Windows XP

Quelle: http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=14219&stc=1&d=1237403307
 
Zuletzt bearbeitet:
@McSven@SETI-Ost

Welches System hast du: Vista oder XP?
…Ich verwende eine ATI 3850 mit 256MB GDR3 RAM unter Windows XP64…

Jup richtig von dir erkannt darin wird das Problem liegen. Danke, ich teste dann mal den 9.1 (wenn ich eh ein downgrade machen muss) und schau mal ob er wieder abschmiert.

Nachtrag:

So mit dem 9.1er läuft Milkyway wieder. Leider ist die Anwendung erneut abgeschmiert, nach einem Neustart von BOINC konnten dann die Daten zu ende gerechnet werden.
Hier die Meldung der beiden abgeschmierten Pakete.
Code:
<core_client_version>6.4.7</core_client_version>
<![CDATA[
<stderr_txt>
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
allowing 2 concurrent WUs per GPU
CPU: Intel(R) Core(TM)2 Quad CPU           @ 2.66GHz (4 cores/threads) 3.10897 GHz (306ms)

CAL Runtime: 1.3.158
Found 1 CAL device

Device 0: ATI Radeon HD 3800 (RV670) 256 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 669 MHz, memory clock: 829 MHz
320 shader units organized in 4 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

0 WUs already running on GPU 0
Starting WU on GPU 0

main integral, 160 iterations
predicted runtime per iteration is 279 ms (33.3333 ms are allowed), dividing each iteration in 9 parts
borders of the domains at 0 177 355 533 711 888 1066 1244 1422 1600
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
allowing 2 concurrent WUs per GPU
CPU: Intel(R) Core(TM)2 Quad CPU           @ 2.66GHz (4 cores/threads) 3.10899 GHz (845ms)

CAL Runtime: 1.3.158
Found 1 CAL device

Device 0: ATI Radeon HD 3800 (RV670) 256 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 669 MHz, memory clock: 829 MHz
320 shader units organized in 4 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

1 WUs already running on GPU 0
Starting WU on GPU 0

main integral, 160 iterations
predicted runtime per iteration is 279 ms (33.3333 ms are allowed), dividing each iteration in 9 parts
borders of the domains at 0 177 355 533 711 888 1066 1244 1422 1600
Calculated about 2.45253e+012 floatingpoint ops on GPU, 6.34181e+007 on FPU. Approximate GPU time 176.313 seconds.
Calculated about 2.23378e+009 floatingpoint ops on FPU (stars).

WU completed.
CPU time: 13.8281 seconds,  GPU time: 176.313 seconds,  wall clock time: 359.64 seconds,  CPU frequency: 3.109 GHz

</stderr_txt>
]]>
Code:
<core_client_version>6.4.7</core_client_version>
<![CDATA[
<stderr_txt>
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
allowing 2 concurrent WUs per GPU
CPU: Intel(R) Core(TM)2 Quad CPU           @ 2.66GHz (4 cores/threads) 3.10898 GHz (291ms)

CAL Runtime: 1.3.158
Found 1 CAL device

Device 0: ATI Radeon HD 3800 (RV670) 256 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 669 MHz, memory clock: 829 MHz
320 shader units organized in 4 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

1 WUs already running on GPU 0
Starting WU on GPU 0

main integral, 160 iterations
predicted runtime per iteration is 408 ms (33.3333 ms are allowed), dividing each iteration in 13 parts
borders of the domains at 0 123 246 369 492 615 738 861 984 1107 1230 1353 1476 1600
Running Milkyway@home ATI GPU application version 0.19e by Gipsel
allowing 2 concurrent WUs per GPU
CPU: Intel(R) Core(TM)2 Quad CPU           @ 2.66GHz (4 cores/threads) 3.10899 GHz (827ms)

CAL Runtime: 1.3.158
Found 1 CAL device

Device 0: ATI Radeon HD 3800 (RV670) 256 MB local RAM (remote 28 MB cached + 1024 MB uncached)
GPU core clock: 669 MHz, memory clock: 829 MHz
320 shader units organized in 4 SIMDs with 16 VLIW units (5-issue), wavefront size 64 threads
supporting double precision

0 WUs already running on GPU 0
Starting WU on GPU 0

main integral, 160 iterations
predicted runtime per iteration is 408 ms (33.3333 ms are allowed), dividing each iteration in 13 parts
borders of the domains at 0 123 246 369 492 615 738 861 984 1107 1230 1353 1476 1600
Calculated about 3.70012e+012 floatingpoint ops on GPU, 6.34181e+007 on FPU. Approximate GPU time 254.75 seconds.

cut number 0, 40 iterations
predicted runtime per iteration is 51 ms (33.3333 ms are allowed), dividing each iteration in 2 parts
borders of the domains at 0 200 400
Calculated about 1.15629e+011 floatingpoint ops on GPU, 5.38792e+006 on FPU. Approximate GPU time 7.9375 seconds.
Calculated about 2.61588e+009 floatingpoint ops on FPU (stars).

WU completed.
CPU time: 16 seconds,  GPU time: 262.688 seconds,  wall clock time: 444.516 seconds,  CPU frequency: 3.109 GHz

</stderr_txt>
]]>
Irgend wie kommt mir es mir so vor als schmiert die Anwendung immer ab wenn ich ein paar Minuten afk bin. Solange ich am Rechner sitze geht alles ohne Probleme, nur leider bekomme ich im Moment keine Pakete mehr. Wenn ich mal wieder Pakete habe werde ich das mal genauer beobachten.
 
Zuletzt bearbeitet:
Irgend wie kommt mir es mir so vor als schmiert die Anwendung immer ab wenn ich ein paar Minuten afk bin. Solange ich am Rechner sitze geht alles ohne Probleme, nur leider bekomme ich im Moment keine Pakete mehr. Wenn ich mal wieder Pakete habe werde ich das mal genauer beobachten.

Genau so war es bei mir auch. Besser lief es nur, seit ich den 8.12er Treiber installiert hatte. Seit dem war das Prob weg.

SDI
 
SUSA und die Franzosen pullen derzeit täglich merh als die Hälfte ihres Outputs (5.5 - 6 Mio) bei Milkyway( 2.5 - 3 Mio) .. und wo dümpeln wir rum?


*abgelehnt

Gleich vertick ich meine GTX260 und hol mir ne Radeon....
 
Und in einem Monat werden die (BOINC@)Polen uns holen... Paar Tage später die Tommys, *ähm* das UK BOINC Team und früher oder später BOINCstats... *suspect*
 
Zuletzt bearbeitet:
SUSA und die Franzosen pullen derzeit täglich merh als die Hälfte ihres Outputs (5.5 - 6 Mio) bei Milkyway( 2.5 - 3 Mio) .. und wo dümpeln wir rum?


*abgelehnt

Gleich vertick ich meine GTX260 und hol mir ne Radeon....

moin moin

tja wir haben wohl nicht so viele Gamer die ATI karten haben ..

oder nicht jeder weiss das mann mit den ATI karten so gut rechnen kann

mfg manni
 
Nur zum Crunchen würde ich mir keine ATI kaufen, außerdem werden die Karten ja nicht mal offiziell vom Projekt supportet.
 
Ich habe MilkyWay eine Woche mit einer Radeon HD 3850 getestet und seit gerstern mit einer Radeon HD 4870. Mit der 3850er hatte ich sehr oft VPU Recover, manchmal lief es 5 Stunden manchmal aber auch nur 5 Minuten. Mit der Radeon HD 4870 hatte ich binnen 36 Stunden nicht einen VPU Recover im selben Rechner und selben Treiber. Das einzigst negative an den Tausch ist das der Stromverbauch ca. 90W in die höhe geschossen ist dafür ist natürlich der Output auch 2-3 mal so hoch. Für meinen Geschmack ist der Referenzkühler der Radeon HD 4870 ziemlich laut, eine GTX260 55nm ist deutlich ruhiger, auf Last bezogen. Die GTX260² bleibt bei Seti und GPUGrid deutlich leiser, das kann aber auch an der geringeren Auslastung liegen.
Aber dennoch läuft die GPUApp wirklich gut, mit den neureren Karten problemlos. Den höheren Stromverbauch kompensiere ich zum Beispiel dadurch das ich die CPU keine anderen Projekte rechnen lasse. Die Frage ist nur wie lange die Karten die Volllasthatz mitmachen, die GTX260 und co. scheinen nicht so gequält zu sein bei Seti und GPUGrid was sich im niedrigeren Stromverbauch wiederspiegelt. Schön wäre es wenn die Radeon HD 48xx etwas sparsamer wären aber wenn man die Rechenleistung mit den GTX2xx Karten vergleicht ist das eigentlich gerechtfertigt.
Ich kann mir gut vorstellen das die Radeon Karten auch in Seti und anderen Projekten die Nvidia Konkurrenz alt aussehen lassen.
 
Das einzigst negative an den Tausch ist das der Stromverbauch ca. 90W in die höhe geschossen ist dafür ist natürlich der Output auch 2-3 mal so hoch. Für meinen Geschmack ist der Referenzkühler der Radeon HD 4870 ziemlich laut, eine GTX260 55nm ist deutlich ruhiger, auf Last bezogen. Die GTX260² bleibt bei Seti und GPUGrid deutlich leiser, das kann aber auch an der geringeren Auslastung liegen.
[..]
Schön wäre es wenn die Radeon HD 48xx etwas sparsamer wären
Zumindest bei MW spielt der Speichertakt der Karte kaum eine Rolle, die Shaderleistung zählt. Du kannst also deutlich was sparen, wenn Du den RAM möglichst tief taktest (taktest Du zu tief, gibt es Fehler). Irgendwer hat das mit einer HD4870 schon mal ausprobiert, daß es bis runter auf 250MHz praktisch keine Geschwindigkeitseinbußen gibt. Da ist also ordentlich Spielraum.
 
Zumindest bei MW spielt der Speichertakt der Karte kaum eine Rolle, die Shaderleistung zählt. Du kannst also deutlich was sparen, wenn Du den RAM möglichst tief taktest (taktest Du zu tief, gibt es Fehler). Irgendwer hat das mit einer HD4870 schon mal ausprobiert, daß es bis runter auf 250MHz praktisch keine Geschwindigkeitseinbußen gibt. Da ist also ordentlich Spielraum.
Danke für den Tip, ob es was kostet werde ich sehen aber der Stromverbauch ist um ca. 40-50W gesunken, Speicher läuft jetzt mit 250MHz. Die Bandbreite des GDDR5 RAMs beträgt selbst bei 250MHz noch gute 30.000MB/s, die 4850 hat zum Beispiel nur 65.000MB/s stock. Unter 200MHz ist zu mindest mit meiner Karte nicht möglich, das führt zu Artefakten und Systemabsturz. Die Frage ist nur wieso takten die Karten im 2D Modus nicht so tief wenn es doch geht, in dieser Beziehung verstehe ich die Kartenhersteller wirklich nicht. Die 4870 ist im Idle genauso sparsam, wenn man sie runtertaktet, wie eine GTX260 55nm.
 
Danke für den Tip, ob es was kostet werde ich sehen aber der Stromverbauch ist um ca. 40-50W gesunken, Speicher läuft jetzt mit 250MHz.
Gerade mal geschaut, aber der Schritt 900 -> 250 MHz kostet so ~4% Performance, wenn man das an den wenigen Werten bei Deinem Rechner festmachen will. Aber bei 40 Watt Ersparnis ist das wohl zu verkraften.
Falls nicht, kann man ja den Chiptakt noch auf 780MHz anheben, um das wieder zu kompensieren ;) Sollte dann immer noch sparsamer als vorher sein ;D
 
Meine Karte erzeugt leider bei über 775MHz Kerntakt schon Artefakte mit dem ATITool. Selbst wenn es 10% wären ist es mir die Ersparniss wert und die Karte dürfte auch etwas kühler laufen und das sollte sich positiv auf die Haltbarkeit auswirken, wenn auch nicht viel. Mit dem momentanen Verbrauch von ca. 225W zieht die Radeon bei MW nur ca. 30W mehr wie der Core i7 (2.83GHz stock untervoltet) bei Seti, ich denke das ist hinnehmbar für die gebotene Leistung der GPU.
 
SUSA und die Franzosen pullen derzeit täglich merh als die Hälfte ihres Outputs (5.5 - 6 Mio) bei Milkyway( 2.5 - 3 Mio) .. und wo dümpeln wir rum?


*abgelehnt

Gleich vertick ich meine GTX260 und hol mir ne Radeon....

tja momentan rechnen ja auch nur so etwa 8-10 Radeon's für unser Team ... nicht gerade viel (+ einige CPUs) ... aber dies dürfte noch schlimmer werden, wenn endlich T. seinen CUDA-Client fertig bekommt - dann rechnen evtl. einige nVs für uns aber noch viel mehr bei SG, AF, Polen, Scots usw und wir werden noch weiter und viel schneller abrutschen;

ggf. sollte MW PdM für Juni werden - damit wir zurück auf Platz 4 (oder besser) kommen
 
Zurück
Oben Unten