Optimierte MilkyWay@home Applikation

Eigentlich müssen die anderen Projektbetreiber schnellstens nachziehen und einen Graka-Client veröffentlichen denn wenn eine Graka bei MW soviel mehr Flops erbringt als z.B. bei Seti eine CPU dann sind die höheren Credits doch voll gerechtfertigt.

Vollste Zustimmung. Man hört dauernd auf Nachfragen der User bei den Projekten, ob denn auch eine Unterstützung für Grakas kommen wird: "Wir sind dran. Kann nicht mehr lange dauern." Har,har...
Versuch mal bei GPUGrid Unterstützung für eine ATI Karte zu bekommen.
Es ist im Moment nicht geplant (We will not support ATI for the time being.).
DA sind dann wieder die ATI Nutzer den Nvidia Besitzern gegenüber im Nachteil.

Blöderweise wird DC von einem Breitensport wo jeder Chancen hat zur Formel 1.
Das ist ja an sich auch nicht schlimm, aber die vielen Rechenzeitspender die keine dicke Graka in ihre Rechner einbauen werden weil es z.B. Büromaschinen sind werden sich bestimmt überlegen ob das noch Sinn hat. Sinn im Sinne von Arbeitsleistung gegen Watt aufgetragen.

Das mit der Formel 1 haben wir doch schon die ganze Zeit. Wer hat das schnellste System? Wer hat die meisten Systeme zur Verfügung?
Wer hat die schnellste Grafikkarte? usw.... Das ließe sich beliebig fortführen.
 
Bei Spielen reichen Berechnungen mit einfacher Genauigkeit, wo die Grafikkarten von ATI und Nvidia fast gleiche Geschwindigkeit erreichen.
Darauf sind die Grakas optimiert. Bei MW braucht man eine höhere Genauigkeit.
Die Zahlen können mehr Nachkommastellen haben und brauchen aber auch mehr Speicher.
Dafür scheint ATI "etwas" besser optimiert zu haben als Nvidia. Der Einbruch im Vergleich zur einfachen Genauigkeit ist einfach nicht so groß.
 
Woran liegt es eigentlich genau, dass die aktuellen Nvidia-Karten bei Spielen vergleichbare/bessere Leistung liefern als aktuelle ATI-Karten, bei solchen Berechnung aber gnadenlos abstinken?
So richtig erschließen konnte ich mir das bisher nicht.
Die nvidia-Karten haben generell eine höhere Texturierleistung, was bei vielen Spielen doch noch einiges bringt. Schaut man sich reine Tests der Shaderleistung an, so sieht man, daß auch bei single precision eine HD4870 schon vor einer GTX liegt.
Bei double precision erhöht sich dieser Unterschied noch dramatisch. Allerdings wird die doppelte Genauigkeit von keinem einzigen Spiel benutzt (das wurde ja eigentlich nur für GPGPU-Sachen eingebaut), dafür aber bei MW.
 
Irgendwie peinlich für Nvidia, wenn eine 300 Euro teure Karte gegen eine der Konkurrenz alt aussieht, die vllt. die Hälfte kostet, und das wo ich den Eindruck hatte, dass man bei den Grünen in Sachen GPGPU viel weiter wäre.

Naja, mal sehen wie es in Sachen Credits weiter geht, ich habe null Einblick, wie viel bei MW im Vergleich zu anderen Projekten gerechnet wird, aber ich denke, selbst wenn man die Credits halbiert ist die Ausbeute im Vergleich zu anderen Projekten überdurchschnittlich groß, auch ohne den Einsatz von Grafikkarten.
 
Naja, mal sehen wie es in Sachen Credits weiter geht, ich habe null Einblick, wie viel bei MW im Vergleich zu anderen Projekten gerechnet wird, aber ich denke, selbst wenn man die Credits halbiert ist die Ausbeute im Vergleich zu anderen Projekten überdurchschnittlich groß, auch ohne den Einsatz von Grafikkarten.
Aber nur bei neuen CPUs und optimierten Anwendungen. Mit halbierten Credits würde man auf älteren Kisten mit der 32Bit Standardapp auch nicht viel mehr bekommen als z.B. bei POEM.

Apropos optimierte App:
Code:
CPU time [b]181.4063[/b]
stderr out <core_client_version>5.10.45</core_client_version>
<![CDATA[
<stderr_txt>
Running Milkyway@home version 0.19 by Gipsel
CPU: Intel(R) Core(TM)2 Duo CPU     E8400  @ 3.00GHz (2 cores/threads) [b]3 GHz[/b] (365ms)

WU completed. It took [b]181.406[/b] seconds CPU time and [b]181.741[/b] seconds wall clock time [b]@ 3 GHz[/b].

</stderr_txt>
]]>
 
Validate state Valid 
Claimed credit 0.980623367158888 
Granted credit 12.277123 
application version 0.19
3 Minuten bei 3 GHz. Da kann man auch mit halbierten Credits noch gut leben ;D
Aber ich glaube, jetzt geht nicht mehr viel ohne Assembler bzw. Intrinsics. Ist vom generellen Optimierungszustand jetzt etwa mit der GPU-App vergleichbar.
 
Zuletzt bearbeitet:
Travis hat nochmal an der Credit-Schraube gedreht - 6Cr bei kleinen und 9Cr bei großen WUs ... es wird langsam ...

damit stünde MW ggf auch mal als PdM zur vfg.
 
Jetzt das WU-Limit für Grakas noch auf 1000 setzen dann ist die Verhältnismäßigkeit gewahrt. ;D
 
Mit der opt. app. von Gipsel und meinem Intel Core Quad Q9550@3500 erreiche ich jetzt mit der aktuellen Creditvergabe 10000 Credits am Tag.
Das ist immer noch sehr viel. Aber das kann man bei anderen Projekten mit opt. App. auch erreichen. :)
Jetzt werden sich die "Creditbewusten" Leute langsam nach einem anderen Projekt umschauen müssen.;)
Jetzt muss Gipsel seine Version nur noch die offizielle Version werden und wir haben unser anfängliches Ziel erreicht.
 
naja das WU-Limit liegt ja noch bei 1000Wu/CPU-Core/Tag: Eine NULL mehr und es reicht auch für GPUs
 
Travis hat nochmal an der Credit-Schraube gedreht - 6Cr bei kleinen und 9Cr bei großen WUs ... es wird langsam ...
ich blick da nicht so ganz durch, ein paar rechner von mir bekommen bereits seit ein paar stunden 6/9 cr, einige allerdings immer noch 12/18 cr, selbst bei frisch abgeholten WUs... nach was geht das da?
 
Ist auch aufgefallen, dass die Berechnungszeit der WU's länger geworden ist?
Besonders bei den ps_s20 und ps_s21 WU's sind es ca. 4min länger.*noahnung*
 
Diese WU's brauchen auf dem E2200 11-12min. Die ps_s86 WU's brauch nur 7-8min.:] Und der Credit ist auch gefallen, wie es DerRob gesagt hat.
 
ich hab auch einige neue 12C-WUs: alle samt ps86er ?!?

aber sonst "nur" so 6,3 bis 9,6 C/Wu (kein Vgl zu 20-40C/Wu von vor 2Wo)

die aktuelle Credithöhe finde ich "angemessen" also OK - wer mehr will soll große abc@home WUs rechnen

jetzt brauch ich nur noch ein neues BIOS für mein V8 und ne 48xx GPU ....
 
wurden die credits schon wieder geändert? oder sind jetzt andere WUs unterwegs? ich bekomme jetzt 8 und 12 cr pro WU, bei einer laufzeit von etwa 400 bzw. 600 sec (auf einem q6600@2,4ghz), wobei die größeren WUs bei der laufzeit teilweise erheblich schwanken (hab ein paar dabei, die nur 450-500 sec gebraucht haben, aber auch viele mit 650-700 sec) ???
 
Vollste Zustimmung. Man hört dauernd auf Nachfragen der User bei den Projekten, ob denn auch eine Unterstützung für Grakas kommen wird: "Wir sind dran. Kann nicht mehr lange dauern." Har,har...
Versuch mal bei GPUGrid Unterstützung für eine ATI Karte zu bekommen.
Es ist im Moment nicht geplant (We will not support ATI for the time being.).
DA sind dann wieder die ATI Nutzer den Nvidia Besitzern gegenüber im Nachteil.
Ein einfacher Blick auf die GPUGrid-Seite sollte eigentlich jedem zeigen, daß das inzwischen fast ein Marketing-Projekt von nvidia ist. Nvidia Leute haben das für CUDA portiert und die werden jetzt einen Teufel tun, bevor die Arbeit in eine ATI-Version stecken. Ist eigentlich ähnlich zu SETI, wo die CUDA-App auch unter tatkräftiger Mithilfe von nvidia-Programmierern entstanden ist. Die haben da einfach deutlich mehr Resourcen investiert und das GPGPU-Computing mittels CUDA ordentlich gepushed. Da hat AMD/ATI echt was verpaßt, gerade weil die Shaderpower der ATI-Hardware eigentlich über jeden Zweifel erhaben ist.

=======================================================================

Aber zurück zum Thema. Ich habe gerade eine Win32-Version für die ATIs kompiliert. Laut AMD geht das ja angeblich auf einem 64Bit-System (meine Entwicklungskiste) nicht. Habe das aber mal trotzdem gemacht :]
Am GPU-Code wurde nichts geändert, lediglich die CPU-Erkennung der 0.19er CPU-Version wurde eingefügt. Trotzdem bleibt natürlich eine Restunsicherheit, ob das dann auch wirklich läuft. Die sind im Moment völlig ungetestet. Also zum Anfang mal ein wenig aufpassen und Feedback hier im Thread geben.

Im Falle der GPU-App benötigt man wirklich eine 64Bit-Version für Win64 (die 32Bit-Variante läuft auf Win64 nicht), da die CAL-Bibliotheken (Teil des GraKa-Treibers) etwas anders angesprochen werden. Es gibt demzufolge hier zwei Versionen. Eine für Win64 und eine für Win32. Die Win32-Version setzt SSE2 voraus, was aber wohl kein Hindernis darstellen sollte, da ja kaum einer eine HD3800er oder HD4800er Karte auf einem AthlonXP oder einem P3 betreiben dürfte ;)
Ansonsten dürften die gleichen Hinweise wie für die alte Win64-Version gelten. GPU-Z und das Catalyst Control Center am besten nicht benutzen (ergibt heftige Lags und kann WUs schrotten). Unter Vista gibt es wohl Probleme mit der protected Installation (Service-Installation mit einem eingeschränktem Nutzerkonto). Und mit Windows7 läuft es wohl auch nicht (ATI-Treiber installiert CAL-Bibliotheken nicht). Die Verteilung auf mehrere GPUs mit Crossfire oder X2-Karten wird im Moment nicht unterstützt (kommt noch), es sollte dabei aber eigentlich zumindest eine GPU genutzt werden können.

Systemvoraussetzungen:
  • ATI HD3850, HD3870, HD4830, HD4850 oder HD4870
  • Catalyst 8.12 oder 9.1
  • CPU mit SSE2 Unterstützung
  • Win32 oder Win64 (mit den oben genannten Einschränkungen)
Viel Spaß beim Ausprobieren!
 
Also mit einem X2 4850e plus einer HD3870 werden 4 WU's alle ca. 6.4sec berechnet. Der PC ist aber dann fast nicht mehr zu gebrauchen. Alles ruckelt. Und nach gefühlte 1-2min gibt es einen VPU Recover und ziemliche Grafikfehler, siehe Screeshot. Als OS benutz ich WinXP 32bit Prof.
 
Zuletzt bearbeitet:
Also mit einem X2 4850e plus einer HD3870 werden 4 WU's alle ca. 6.4sec berechnet. Der PC ist aber dann fast nicht mehr zu gebrauchen. Alles ruckelt. Und nach gefühlte 1-2min gibt es einen VPU Recover und ziemliche Grafikfehler, siehe Screeshot. Als OS benutz ich WinXP 32bit Prof.
Also die fehlende Flash-Werbung würde ich nicht als Grafikfehler bezeichen :-X

Hmm, keine Ahnung, eventuell kommt der XP32-Grafikkartentreiber das nicht richtig hin, seine Kommandos immer bei den WU-Wechseln dazwischen zu schieben (sollte bei einer HD38x0 eigentlich noch für mindestens 6Hz Bildwiederholfrequenz ausreichen). Du kannst ja mal ausprobieren, nur eine WU laufen zu lassen. Dazu in der app_info.xml die Werte avg_ncpus und max_ncpus mal beide auf 2 setzen (die Einträge gibt es je zweimal). Für das Editieren der app_info.xml gilt das Gleiche wie für die Installation der Apps, BOINC sollte vorher beendet werden.

Übrigens sollte das bei einer 3870 eher alle 24s bzw knapp 35s eine WU sein (es sei denn, Du hast eine der wenigen ganz kurzen erwischt, die wohl auch rumschwirren). Denk dran, das BOINC CPU-Zeit anzeigt ;)
 
Zuletzt bearbeitet:
Der Fehler war daran zu sehen, dass meine Fenster komisch rosa, grün, blau und sonstigen Farben angezeigt wurden, und vorher war der Bildschirm für 2sec aus und danach kam die Fehlermeldung.

Die Zeit hab ich von MW Seite und nicht von Boinc.

Das mit nur einer WU laufen zu lassen, versuch heute abend, wenn ich daheim bin!

Was ganz anderes.
Werden eure Ergebnisse bei MW auf der Webseite auch nach einiger Zeit nicht mehr angezeigt? Also welche WU, wie lange, wie viel Credit usw. Bei Poem z.B. bleibt das immer stehen aber bei MW verschwindet das bei mir wieder.
 
Zuletzt bearbeitet:
Bei POEM verschwinden die WUs auch nach sieben Tagen aus der Übersicht.
 
Werden eure Ergebnisse bei MW auf der Webseite auch nach einiger Zeit nicht mehr angezeigt? Also welche WU, wie lange, wie viel Credit usw. Bei Poem z.B. bleibt das immer stehen aber bei MW verschwindet das bei mir wieder.
ja, das ist mir auch aufgefallen, scheinbar werden die listen alle paar stunden komplett gelöscht (bei den kurzen WUs werden die listen wahrscheinlich sonst zu lang und bremsen den server zu sehr aus... :])
 
Die Zeit ist auf 3 Std. bereits "angehoben" worden :P - vorher waren die WUs wirklich nach jeder Aktualisierung schon verschwunden... ;)
 
naja das WU-Limit liegt ja noch bei 1000Wu/CPU-Core/Tag: Eine NULL mehr und es reicht auch für GPUs
Travis hat auf die Anfrage reagiert. Es gibt jetzt maximal 5000 WUs pro Tag und Kern. Das reicht also ab einem DualCore auch für 24h bei einer HD4870. Zur Erinnerung, die neueste Version der GPU-Anwendung für die 3800er und 4800er ATIs gibt es hier. Die ist sowohl für Win32 als auch Win64 verfügbar.

Also dann haut mal ordentlich rein!
 
Zurück
Oben Unten