Optimierte MilkyWay@home Applikation

Hallo zusammen
ich bekomme schon seit Tagen nur solche Meldungen:
27.12.2008 19:59:18|Milkyway@home|Fetching scheduler list

Ich habe schon mehrfach abgemeldet, aber nix passiert
gibt es da irgendwelche Hilfe ?
 
Hallo zusammen
ich bekomme schon seit Tagen nur solche Meldungen:
27.12.2008 19:59:18|Milkyway@home|Fetching scheduler list

Ich habe schon mehrfach abgemeldet, aber nix passiert
gibt es da irgendwelche Hilfe ?

Auf meinem Laptop tritt das gleiche Problem auf. Konnte bisher auch keine Lösung finden.
Nichtmal den Punktestand aktualisiert er, als hätte das Projekt den Laptop ausgespeert.
Auf meinem anderen baugleichen Laptop läuft Milkyway jedoch.
Habe nun erstmal auf QMC geswitcht.
 
Zuletzt bearbeitet:
Habe gerade mal meinen neuen Core i7 bei Milkyway im Einsatz. Das Teil skaliert wirklich hier sehr gut. Mit 3600Mhz braucht er für eine WU mit aktiviertem HTT mit optimierter App gerade mal noch ziemlich genau 5 Minuten. Hat noch jemand einen i7 hier am laufen?
 
Habe gerade mal meinen neuen Core i7 bei Milkyway im Einsatz. Das Teil skaliert wirklich hier sehr gut. Mit 3600Mhz braucht er für eine WU mit aktiviertem HTT mit optimierter App gerade mal noch ziemlich genau 5 Minuten. Hat noch jemand einen i7 hier am laufen?
Na ich (allerdings momentan nur mit einem ganz kleinen Resource Share). Auch bei 3.6GHz. Scheint ein Sweet-Spot zu sein, den man noch mit dem boxed-Kühler und Standardpannung erreicht. Bin übrigens knapp unter 5 Minuten :]

Bei allen anderen Projekten, die ich ausproiert habe, bringt HT übrigens weniger. MW ist ist mit etwa 65% Spitzenreiter, QMC und POEM sind mit 45% Plus aber auch nicht schlecht dabei. Bei SIMAP bringt das HT am wenigsten.
 
Zuletzt bearbeitet:
Bei allen anderen Projekten, die ich ausproiert habe, bringt HT übrigens weniger. MW ist ist mit etwa 65% Spitzenreiter, QMC und POEM sind mit 45% Plus aber auch nicht schlecht dabei. Bei SIMAP bringt das HT am wenigsten.

Ist das ein Zeichen wie gut oder schlecht die Projekte programmiert sind?
Und würde man ähnliche Steigerungen mit einem Intel Core 2 Quad 9550 plus VM erreichen wie ein i7 plus HT? Ich würde das ja gerne mal testen aber ich habe keine Ahnung vom einrichten einer VM.
 
Ist das ein Zeichen wie gut oder schlecht die Projekte programmiert sind?
Und würde man ähnliche Steigerungen mit einem Intel Core 2 Quad 9550 plus VM erreichen wie ein i7 plus HT? Ich würde das ja gerne mal testen aber ich habe keine Ahnung vom einrichten einer VM.
VM != HT ;)
 
Wow!:o Wo gibt es eine Installationsleitungen? Ich hatte das schon mal versucht und auch soweit hin bekommen aber es gab kein kostenlosen Win XP Aufsatz. Und mit Linux komme ich nicht klar zumal alles auf englisch war.:-[
 
Frage:

worin besteht der unterschied zwischen einer SSE3- und 3DNow! Version?
noch ne Frage:
muss ich bei, 0,03 CPUs, 1 Cuda, noch einen core für die grafika abstellen?
 
Zuletzt bearbeitet:
Wow!:o Wo gibt es eine Installationsleitungen? Ich hatte das schon mal versucht und auch soweit hin bekommen aber es gab kein kostenlosen Win XP Aufsatz. Und mit Linux komme ich nicht klar zumal alles auf englisch war.:-[
Was genau möchtest du denn mit der VM? Schneller oder mehr auf einmal kannst du damit nicht rechnen. Das einzige was du damit erreichen könntest, wäre das WU-Limit pro Tag zu umgehen, das dürfte aber erst ab unter 288 Sekunden pro WU eintreten.

Ein "Ersatz" zu HT ist eine VM aber nicht.
 
Moin
habe mal spaßeshalber nen Dualcore mit ner cc_config mit 4 Tasks gleichzeitig laufen lassen und nu wollte ich mal fragen ob man Boinc auch noch dazu bewegen kann das er arbeit für 4 cpus bekommt bzw. das er als Quadcore erkannt wird ???
 
Was genau möchtest du denn mit der VM? Schneller oder mehr auf einmal kannst du damit nicht rechnen. Das einzige was du damit erreichen könntest, wäre das WU-Limit pro Tag zu umgehen, das dürfte aber erst ab unter 288 Sekunden pro WU eintreten.

Ein "Ersatz" zu HT ist eine VM aber nicht.
Hi Twodee
Im Fred Abstimmung PdM Januar hast Du geschrieben:"also derzeit kann ein Quad bei MW (ohne limits *g*) max. ~61K holen, ein i7 Quad aka OctaCore würde bei 65% Zusatz durch ht ca. 100K bringen."
Wenn ich mit meinem Q6600@3.2 (ca. 255 sec) im Limit bleibe sind ca 10K drin. Wie kann man das fast 6-fache rausholen?
 
@Caipi

Dafür musst du imho den Quellcode editieren der die Anzahl der verbauten CPU-Kerne liefert, so dass statt 2 4 siehst, oder 8 usw ;-) Liegt im Rahmen des machbaren, muss man nur finden den Schnippsel...
 
@Caipi

Dafür musst du imho den Quellcode editieren der die Anzahl der verbauten CPU-Kerne liefert, so dass statt 2 4 siehst, oder 8 usw ;-) Liegt im Rahmen des machbaren, muss man nur finden den Schnippsel...
IMHO geht sowas schon ziemlich in Richtung cheaten.
 
Moin
kann man das nicht in der Registry ändern?
 
Hi Twodee
Im Fred Abstimmung PdM Januar hast Du geschrieben:"also derzeit kann ein Quad bei MW (ohne limits *g*) max. ~61K holen, ein i7 Quad aka OctaCore würde bei 65% Zusatz durch ht ca. 100K bringen."
Wenn ich mit meinem Q6600@3.2 (ca. 255 sec) im Limit bleibe sind ca 10K drin. Wie kann man das fast 6-fache rausholen?
das darf ich nicht erläutern.
 
das darf ich nicht erläutern.

Will man denn ?
Die App zu optimieren schön und gut aber nun auf biegen und brechen sämtlichen Krempel umschreiben, irgendwas vorgaukeln um damit die größtmögliche Anzahl an Credits rauszuholen find ich etwas daneben denn das hat dann nichts mehr mit optimieren zu tun 8)
 
Will man denn ?
Die App zu optimieren schön und gut aber nun auf biegen und brechen sämtlichen Krempel umschreiben, irgendwas vorgaukeln um damit die größtmögliche Anzahl an Credits rauszuholen find ich etwas daneben denn das hat dann nichts mehr mit optimieren zu tun 8)
nein. der aufwand hängt von einer einzigen zahl ab, dann bekommt man das, was einem zusteht und nicht das was der projektbetreiber meint kürzen zu müssen.
 
Frage:

worin besteht der unterschied zwischen einer SSE3- und 3DNow! Version?
noch ne Frage:
muss ich bei, 0,03 CPUs, 1 Cuda, noch einen core für die grafika abstellen?
Na ganz einfach, die SSE2/3/4-Versionen benutzen SSEx-Instruktionen, die 3DNow!-Version nicht. Zumindest ich habe dabei auf die Fähigkeiten des Compilers vertraut (der Quelltext ist jeweils identisch, nur beim Kompilieren wird ein anderes Flag für den erlaubten Befehlssatz gesetzt). Bei der 3DNow!-Version von Twodee (und auch SSE) kommen handgeschriebene Routinen (mit entsprechenden Intrinics) zum Einsatz, da man wohl ein wenig tricksen muß, um auf die erforderliche Genauigkeit zu kommen.

Apropos Genauigkeit, falls ich doch noch Zeit finde, eine Grafikkartenversion zu stricken, wird die übrigens nur auf ATIs laufen, da CUDA im Gegensatz zu Stream keine doppelte Genauigkeit auf Consumerkarten erlaubt. Im Prinzip brauche ich bloß mal einen Tag Zeit dafür. Das mit dem Testen könnte bei mir schwierig werden, da ich selber keine ordentliche Graka besitze, aber dann würde ich mich noch mal melden. Und so wie es momentan aussieht, wird die Stream-App auch eine CPU belegen, aber da muß man mal sehen, wie man das noch optimieren kann. Erstmal muß das überhaupt performant laufen :]
Der erste naive Ansatz würde auf einer 4850/70 nur maximal 8% GPU-Last erzeugen und wäre sogar langsamer als auf jeder halbwegs schnellen CPU. Da muß ich ein wenig mehr parallelisieren. Übrigens schafft eine 4850 etwa 200 GFlop/s (double precision), also deutlich weniger als die 1 TFlop in single precision. Ein 3GHz Quad liegt bei maximal 48 GFlop (double) bzw. 96 GFlop (single). Und dann muß man erstmal sehen, wie effizient man die GraKa-Leistung überhaupt nutzen kann. So viel mehr Beschleunigung ist also nicht drin, solange MW nicht auf single precision gehen will, was für die allermeisten WUs allerdings ausreichen sollte. Falls es mal nicht reicht, könnten sie die Handvoll WUs ja lokal bei sich mit höherer Genauigkeit nachrechnen. Aber das werden die wohl nicht machen, der Server kommt ja so schon kaum mit :]
 
Zuletzt bearbeitet:
Also eine GTX 260 und GTX 280 bieten doppelte Genauigkeit auf Consumerkarten [man muss das im CUDA aber erst gesondert aktivieren]. Die Leistung der beiden Karten wäre zienlich enorm ;D - wo bekomme ich jetzt eine 260er her? *suspect*
 
Also eine GTX 260 und GTX 280 bieten doppelte Genauigkeit auf Consumerkarten [man muss das im CUDA aber erst gesondert aktivieren]. Die Leistung der beiden Karten wäre zienlich enorm ;D - wo bekomme ich jetzt eine 260er her? *suspect*
Wenn Ihr das hinkriegt MUSS ich mir ne neue Graka zulegen ;)
 
Also eine GTX 260 und GTX 280 bieten doppelte Genauigkeit auf Consumerkarten [man muss das im CUDA aber erst gesondert aktivieren]. Die Leistung der beiden Karten wäre zienlich enorm ;D - wo bekomme ich jetzt eine 260er her? *suspect*
DP ist auf den GT200 Chips leider alles andre als "enorm":
Erstmalig unterstützt Nvidia bei Gleitkommaoperationen jetzt auch Double Precision (64 Bit) nach IEEE745R, erreicht dabei allerdings nur ein Achtel der normalen Geschwindigkeit. Die DP-Performance soll bei etwa 90 GFLOPS liegen, was etwa acht Intel-Xeon-Kernen (bei 3 GHz) entspricht.
http://www.heise.de/newsticker/Nvid...en-an-der-TFLOPS-Schallmauer--/meldung/109495
Das wäre den Aufwand also eher nicht wert ... besser dann ne ATi Version, die versprechen immerhin noch 200 GFlops.
Aber da sollte man eigentlich gleich auf OpenCL setzen, wenn gipsel so eifrig ist, bekommt er nach nettem Nachfragen vielleicht schon nen ATi alpha OpenCL Treiber ^^

Edit:
Was benützt eigentlich F@H, SP oder DP ? Wenns DP wäre, müßte der aktuelle ATi Code ja ziemlich miserabel sein, bzw. der CUDA Softwarestack ist dem brook+ / CAL ziemlich überlegen ... Eventuell hat ATi die Flops also nur auf dem Papier :(

ciao

Alex
 
Zuletzt bearbeitet:
Zurück
Oben Unten