Optimierte MilkyWay@home Applikation

Sorry habe mich verrechnet. Bei mir sind es 4805 Credit und keine 2200.*buck*

Ich dachte auch erst das ich mich verrechnet habe.;)

Also dein Intel Dual E2200 mit 2x 2200Mhz würde pro Tag 4805 Credit bekommen.:o
Was schafft der den in anderen Projekten so?:]
 
Dann haben wir Milkyway ja zu Recht auch für den März vom PdM ausgeschlossen...
 
Die ESL wird uns fertigmachen. :(
 
Ich dachte auch erst das ich mich verrechnet habe.;)

Also dein Intel Dual E2200 mit 2x 2200Mhz würde pro Tag 4805 Credit bekommen.:o
Was schafft der den in anderen Projekten so?:]
Bei Poem wären es ca. 1834 Credit wenn es schnelle WU's sind;)
 
mit dem ultra-hochoptimierten GPU-Client (nich der von S@H direkt) kann man durchaus 80T Credits mit 2x 295er von nv schaffen.

Realistisch wären rd 5-7 Credits / WU auch bei GPUs:

Hoffentlich sind die bis April mit ATI S@H Client fertsch - dann rollt der Rubel äh Credit - selbst mit ner 4650er

Man darf nicht vergessen, S@H ist nur SP und nicht das so "langsame" DP wie bei MW; MW mit SP würde auf ner 4870 weniger als 2s benötigen !


Eine Frage:
ne 4870 schaft in etwa 15s - 8 Units (laufen ja 8 nebeneinander) daraus würde folgen:

4 4870x2 GPUs könnten bei 6Cr/WU pro Tag rd 2,1MIO Credits schaufeln ! bei einen Stromverbrauch von etwa 36kW / Tag - etwa 8 Euro / Tag
 
Zuletzt bearbeitet:
Momentan bekommst du aber mindestens 12 Credits pro WU also kannst du dein Ergebnis noch einmal verdoppeln.
Huch, ich glaube deine Berechnung ist nicht ganz richtig.
.
EDIT :
.

Eine Frage:
ne 4870 schaft in etwa 15s - 8 Units (laufen ja 8 nebeneinander) daraus würde folgen:

4 4870x2 GPUs könnten bei 6Cr/WU pro Tag rd 2,1MIO Credits schaufeln ! bei einen Stromverbrauch von etwa 36kW / Tag - etwa 8 Euro / Tag

Soweit wie ich das mitbekommen habe braucht eine 4870 für eine WU 8 - 10 Sekunden.
Also sind in eineinhalb Minuten 8 WUs fertig.

Eine normale 4870 schafft daher mindestens 100000 Punkte am Tag.
4 Stück folgerichtig mindestens 400000 Punkte am Tag.
Ob bei einer 4870x2 beide Grafikeinheiten benutzt werden können musst du Gipsel mal fragen.
 
also auf den Videos sieht man, dass mehrere Unit parallel gerechnet werden ... also mehrere WUs in so 8-15s
 
also auf den Videos sieht man, dass mehrere Unit parallel gerechnet werden ... also mehrere WUs in so 8-15s

Damit steigt aber die Gesamtrechenzeit an. Runtergerechnet sind es ca.10 Sekunden pro WU.
 
*great*Hättest dich ja auch mal früher melden können. Ich musste fast 15 Seiten lesen bis ich diese Information gefunden hatte. *elch**lol*

Lässt du deine 4850 gerade voll für MilkyWay laufen?
Wenn ja , kannst du schon eine Hochrechnung abgeben was die Karte so am Tag schafft?
 
ausgehend von den Specs der 4890 bzw. weiteren möglichen Optimierungen seitens Gipsel (fast kein Brook dafür IL) sollte es sich bei max 9s pro W einpendeln:

4x 4890x2 @12,6C/Wu : 4*2*84000*12,6/9 = rd 940kC/d
Damit wäre die Million pro Tag ohne Problem möglich - es gibt ja noch die CPU(s)

4x 4890x2 @06,0C/Wu : 4*2*84000*6/9 = rd 448kC/d
Damit wäre die wenigstens die halbe Million pro Tag ohne Problem möglich - es gibt ja noch die CPU(s)

jeweils bei rd 8 Euro Stromkosten pro Tag

Grdstzl.:
1. ich rechne max. mit 84000s/d weil es gibt ja noch anderes was Leistung/Zeit benötigt, etwa BOINC selbst, Windows oder nur Netzwerktechnik

2. mit IL könnte es noch einiges an Optimierungen geben - und es würde eine API weniger benötigt - aber Gipsel hat wichtigere Dinge zutun - Doktorarbeit !?!

3. auch für die CPU-App gäbe es noch Optimierungsmöglichkeiten mit geeigneten Compilern spez auf einzelne CPUs und nicht wie bisher auf SSEx - aber wer hätte dafür Zeit eine App für Barcelonas, eine für Shanghais, eine für SantaRosas .... jeweils in 32 und 64Bit Linux und Windows zu basteln ? ....




Wir benötigen ein sinnvolles Vergleichsprojekt für Credit-Vergabe jedoch finde ich "feste" Credits sofern die Berechnungen stimmen - ganz ok - auch für GPUs !

Seti@Home fällt aufgrund SP ja aus - kennt jemand ein GPU-Projekt mit DP
 
Ich rechne mit Umschaltzeit in 2:52 min (172 sec) 20 WU (8,6 s/WU), d.h. ich würde nach 9,5555 Stunden an meine WU Grenze von 4000 (4 Cores) stoßen und hätte (12Cr./WU) = 48'000 Cr. ;) Theoretisch wären in 24h also 120'500 Cr. drin... :o
 
Noch nicht. Aber bei Einstein tut sich auch schon etwas in Richtung GPU.
Siehe hier.
 
*great*Hättest dich ja auch mal früher melden können. Ich musste fast 15 Seiten lesen bis ich diese Information gefunden hatte. *elch**lol*

Lässt du deine 4850 gerade voll für MilkyWay laufen?
Wenn ja , kannst du schon eine Hochrechnung abgeben was die Karte so am Tag schafft?

Yep. Die 4850 läuft komplett auf Milkyway (24Std.). Für was anderes ist die Karte im Moment nicht da.:)
Ganz einfache Rechnung. Gehe von 10 Sekunden pro WU aus. Macht pro Sekunde ca.1,247 Credits (mal mehr, mal weniger).
Das Ganze mal 86400 und Du hast nen ungefähren Anhaltspunkt, wo man mit einer 4850 pro Tag rauskommt.
 
ausgehend von den Specs der 4890 bzw. weiteren möglichen Optimierungen seitens Gipsel (fast kein Brook dafür IL) sollte es sich bei max 9s pro W einpendeln.
[..]
2. mit IL könnte es noch einiges an Optimierungen geben - und es würde eine API weniger benötigt
Du kennst schon die Spezifikationen der HD4890? Ich dachte, die sollte HD4970 heißen? Wieviele Shader bei welchem Takt hat die denn? "Nur" 960 oder doch 1280 (verdoppelte RV740)? Dann kann ich Dir auch sagen, wie schnell es wird ;) Neun Sekunden schafft man auch schon auf einer HD4870 mit 800 Shadern ;D

Übrigens benutze ich Brook im Prinzip nur für das (minimale) Management der Streams (anlegen und Daten zur GraKa schieben) und die reduction kernels. Die eigentlichen "compute kernels" sind komplett in IL handoptimiert. Wenn mir keiner eine effizientere Implementierung von sqrt und exp, als ich jetzt eingebaut habe, zeigt, ist da nicht mehr viel Luft (eine HD4870 macht immerhin schon 150GFlops und es sind ja längst nicht alles MADDs). Alleine die compute kernels benötigen bei 100% Effizienz auf einer HD4870 etwa 8 Sekunden. Da ist nicht viel Overhead durch Brook zu beobachten. Das einzige, was man da noch rausholen könnte, wären vielleicht 2 bis 3%, wenn man direkt die (hardwareabhängigen) Instruktionsgruppen schreibt (direkt den VLIW-Kram, wäre dann sozusagen CTM). Allerdings würde das dann im Gegensatz zu einer IL-Implementation auf zukünftiger Hardware eventuell nicht mehr laufen und lohnt den Aufwand für den minimalen Vorteil wohl eher nicht.

Aber perspektivisch muß ich Brook wohl rausschmeißen (oder mir eine modifizierte Version basteln), da Multi-GPU und das Freigeben der CPU damit erstmal nicht möglich sind.
 
Zuletzt bearbeitet:
Und wann gibt es einen GPu Clinet für WinXp32bit?
 
Und wann gibt es einen GPu Clinet für WinXp32bit?
Ich schaue mal heute Abend, ob es unvorhergesehen Probleme dabei gibt.
es spricht momentan vieles für ein "AUFBOHREN" der 48xx zu einer 4890
http://www.techtree.com/India/News/AMD_to_Unveil_ATI_Radeon_HD_4890_in_April/551-99054-581.html

960 Streamys und 48 Texture...
Die 960 shader wären auch meine Vermutung (die 1280 eine echte Überraschung :o). Bei 850 MHz Takt (den ich auch schon mal gerüchteweise gehört habe), würde sich eine Steigerung der Shaderleistung um 36% ergeben. Damit würde man so etwa 2 Sekunden pro WU (bei den kurzen, bei den längeren 3 Sekunden) an Zeit im Vergleich zur HD4870 abknapsen können, wäre also bei ~7 Sekunden pro WU, also etwa 12.000 WUs am Tag 8)
 
So, es ist soweit. Die ATI-Quad Kombination ist ins 4000er Limit gelaufen.
"No work sent"
"(reached daily quota of 4000 results)" :(
 
Du hast heute also knapp über 50k Credits mit einem Rechner gemacht?
 
Du hast heute also knapp über 50k Credits mit einem Rechner gemacht?

Nicht ganz. Eher knapp drunter. Müssten ca.49000 übriggeblieben sein (Neustarts, Grafiktreiber zurückgesetzt usw.).
 
Dann bin ich mal gespannt, was zuerst passiert, ob die Verantwortlichen die Credits pro WU dermaßen zusammenstreichen, dass es sich nicht mehr lohnt, das Projekt auf einer CPU zu rechnen, oder ob die Leute bei Boincstats eingreifen.
Ich kann mir nicht vorstellen, dass das lange so gehen wird.
 
Was willst du machen? Theoretisch trifft das doch auf jedes Projekt zu, oder? Vermutlich kann man fast jedes Projekt mit einer Grafikkarte um Längen schneller berechnen. Die CPUs dafür zu bestrafen das Grakas schneller sind ist nicht schön aber irgendwo in Ordnung.

Eigentlich müssen die anderen Projektbetreiber schnellstens nachziehen und einen Graka-Client veröffentlichen denn wenn eine Graka bei MW soviel mehr Flops erbringt als z.B. bei Seti eine CPU dann sind die höheren Credits doch voll gerechtfertigt.

Blöderweise wird DC von einem Breitensport wo jeder Chancen hat zur Formel 1.
Das ist ja an sich auch nicht schlimm, aber die vielen Rechenzeitspender die keine dicke Graka in ihre Rechner einbauen werden weil es z.B. Büromaschinen sind werden sich bestimmt überlegen ob das noch Sinn hat. Sinn im Sinne von Arbeitsleistung gegen Watt aufgetragen.
 
Dann bin ich mal gespannt, was zuerst passiert, ob die Verantwortlichen die Credits pro WU dermaßen zusammenstreichen, dass es sich nicht mehr lohnt, das Projekt auf einer CPU zu rechnen, oder ob die Leute bei Boincstats eingreifen.
Ich kann mir nicht vorstellen, dass das lange so gehen wird.
Ich denke, das bekommt man schon halbwegs ausbalanciert. Die Credits im Vergleich zu jetzt nochmal halbieren und dann sollte das eigentlich passen.
Das gibt dann zwar auf den ATIs immer noch deutlich mehr, als mit einer GTX2xx bei SETI oder GPUGrid möglich ist (zumindest, falls das WU-Limit angehoben wird), aber man muß auch mal deutlich sagen, daß die ATIs einfach sauschnell für sowas sind. Ich habe ja schon mal erwähnt, daß eine HD4870 bei MW mehr double precision flops macht, als eine GTX280 bei SETI in single precision schafft :o

In ein bis zwei Wochen soll ja die CUDA-App als alpha-Version zur Verfügung stehen. Ich würde fast alles darauf setzen, daß die auf einer GTX280 allerhöchstens halb so schnell ist wie meine GPU-App auf einer HD4870. Und dazu müßte sich die Studentin die das macht auch schon ganz schön strecken. Aber vielleicht ist die ja mal gut in dem was sie studiert ;)
 
Was willst du machen? Theoretisch trifft das doch auf jedes Projekt zu, oder?
Mit dem Unterschied, dass MW schon immer überdurchschnittlich viele Credits gebracht hat, wenn ich mich nur mal an die Zeiten erinnere, bevor am Code optimiert wurde...
Da waren 10k mit einem Quad kein Problem, und das für Ergebnisse, die heute, mit den extrem verbesserten Apps, ein uralter Singlecore errechnen könnte.
Oder wenn ich lese, dass ein E2200 aktuell fast 5k am Tag schaffen kann, wo mein Q9550 mit grob über den Daumen gepeilt achtfacher Rechenleistung bei Poem gerade mal etwas über 4k schafft...ich bezweifle einfach mal, das MW die Hardware so dermaßen besser ausnutzt. ;)

@Gipsel
Woran liegt es eigentlich genau, dass die aktuellen Nvidia-Karten bei Spielen vergleichbare/bessere Leistung liefern als aktuelle ATI-Karten, bei solchen Berechnung aber gnadenlos abstinken?
So richtig erschließen konnte ich mir das bisher nicht.
 
Zurück
Oben Unten