Unser Einsatz bei MilkyWay

Es spielt alles keine Rolle,es rechtfertigt nicht die horrende Creditausbeute im Verglecih zur CPU. Die ATI karte könnte 1000mal schneller sein,aber ohne Prozessor bringt sie 0 Cr. Irgendwie kommt mir das so vor,das hier krampfhaft versucht wird was schön zu reden.
 
Es spielt alles keine Rolle,es rechtfertigt nicht die horrende Creditausbeute im Verglecih zur CPU. Die ATI karte könnte 1000mal schneller sein,aber ohne Prozessor bringt sie 0 Cr.
Und das sagt mir jetzt was genau?
Die GPU rechnet die exakt gleichen WUs wie die CPU, nur eine ganze Ecke schneller. Das ist nun mal der Lauf der Zeit, daß die CPUs für solche Probleme höchstens als Zulieferer benötigt werden. Eine GPU arbeitet dabei um Längen effizienter (Rechenleistung/Watt). Man sollte doch nicht krampfhaft versuchen, die Rechnungen auf die CPU festzupinnen, wenn es auf GPUs so viel besser geht. Das ganze Ziel des GPGPU-Computings ist es doch gerade, geeignete Probleme durch Auslagerung an entsprechend geeignete Einheiten/Chips massiv zu beschleunigen.
Was glaubst Du denn, was mit Intels Larrabee oder auch AVX mit dem Durchsatz bei solchen Problemen passieren wird? Der geht genauso durch die Decke. Willst Du dann auch sagen, daß die mit einer neuen CPU, die schon AVX kann, errechneten Credits auch ungerechtfertigt sind? *noahnung*

Übrigens gibt es momentan noch ein Limit, was die Anzahl der WUs auf 1000 pro Core und Tag beschränkt. mehr als 32k mit einer GPU auf einem Quadcore bzw. 16K auf einem DualCore sind also nicht drin (mit den längeren WUs dann mehr, je nachdem wie häufig die in Zukunft sein werden).
 
Zuletzt bearbeitet:
Die Credits stehen aber in keinem Verhältnis dazu.Hier wird nur schön geredet,was man ja an der Länge der Freds sehen kann und daher bleibt mein Fazit(wie schon von Anfang an),Boykott des Projektes.
 
Die Credits stehen aber in keinem Verhältnis dazu.Hier wird nur schön geredet,was man ja an der Länge der Freds sehen kann und daher bleibt mein Fazit(wie schon von Anfang an),Boykott des Projektes.

Doch sicherlich, sie stehen 1:1 im Verhältnis zur erbrachten Arbeit, wo ist das Problem? Du könntest dir ja auch 5 Quadcore-systeme hinstellen, die hätten pi*daumen die gleichen GFlops wie eine 4870 Graka und somit die gleichen Credits/day.
 
Kann einer allein so engstirnig sein?:] Wenn eine CPU ob Intel oder AMD genauso so schnell wäre, wie eben die GPU würde sich keiner aufregen. Und das man pro WU mehr Credit bekommt als bei anderen Projekten ist nun mal so.

Warum gibt es überhaupt bei Projekt X nicht soviel wie bei Projekt Y? Diese Frage kannst bei jedem Projekt stellen und dich aufregen und bringt dir das was?

Es sollte doch jedem selber überlassen wo er rechnet und wo nicht und wenn es mehrere eines Teams sind, die eben bei MW rechnen, dann lasst sie! Es ist alle freiwillig und man bekommt dafür nichts außer am Ende des Jahres eine höhere Stromrechnung als würde man nicht rechnen.

Als schön ruhig mit dem Pferden!
 
Die Credits stehen aber in keinem Verhältnis dazu.Hier wird nur schön geredet,was man ja an der Länge der Freds sehen kann und daher bleibt mein Fazit(wie schon von Anfang an),Boykott des Projektes.
Im Verhältnis wozu?
Im Verhältnis zur abgelieferten Rechenleistung stehen sie sehr wohl. Nach langem Ringen hat Travis ja endlich das Creditsystem auf eine tragfähige Basis gestellt. Die Credits werden nun nach ganz einfach ermittelt:
credits = Anzahl der gerechneten Fließkommaoperationen * Multiplikator

Das ist das gleiche System wie bei SETI und wie von David Anderson für alle Projekte als beste Möglichkeit empfohlen wird. Von David Anderson kommt auch die Aussage, daß der Multiplikator für alle Architekturen gleich sein soll, egal ob auf CPU, GPU, PS3 oder sonstwas gerechnet wird.

Als einziger Streitpunkt bleibt also noch der Wert dieses Multiplikators übrig. Nach der letzten Anpassung liegt der jetzt etwa 18% über dem, was man aus dem bei SETI verwendeten Wert als gerechtfertigt ansehen kann. Davor lag er sogar darunter. Ich denke, wegen dieser 18% wird die Welt nicht untergehen, auch wenn ich schon gesagt habe, daß der vorherige Wert wahrscheinlich besser war.

Und das ist kein Schönreden, das sind die Fakten.
 
Doch sicherlich, sie stehen 1:1 im Verhältnis zur erbrachten Arbeit, wo ist das Problem? Du könntest dir ja auch 5 Quadcore-systeme hinstellen, die hätten pi*daumen die gleichen GFlops wie eine 4870 Graka und somit die gleichen Credits/day.

Die stimmen untereinander vielleicht,aber nicht im Gegensatz zu anderen Projekten.Wie gesagt,wenn es kein Problem damit gibt,warum wird dann so über das Projekt diskutiert?
 
Die stimmen untereinander vielleicht,aber nicht im Gegensatz zu anderen Projekten.Wie gesagt,wenn es kein Problem damit gibt,warum wird dann so über das Projekt diskutiert?
Weil sich soviel darüber aufregen, wie du, dass es angeblich zuviel Credit gibt!;)
 
Na und warum rechnen dann die nicht die eine ATI karte haben,wenn es kein Problem damit gibt und warum ist dann unser Output so "mies" im gegensatz zu den anderen?
 
Na und warum rechnen dann die nicht die eine ATI karte haben,wenn es kein Problem damit gibt und warum ist dann unser Output so "mies" im gegensatz zu den anderen?
Vllt will/mag man nicht, vllt steckt man in anderen Projekten, vllt hat nicht jeder eine ATI 4000er? Wieviele rechnen bei GPUGrid mit? Auch nicht jeder dereine CUDA-Fähige Graka hat. Ich bin auch erst seit dieser Woche dabei, obwohl ich sehr auf Credits schaue, ich hatte vorher einfach keine Lust und das ganze machte einst keinen stabilen Eindruck (wie bei MW derzeit mit der GPU-App auch).
 
Weil es vielleicht noch probleme mit der GPU App von Gipsel gibt bzw. erst seid gestern eine 32bit Version gibt und vielleicht liegt es auch daran, dass es nicht alle wissen, dass man das kann und der eine oder mag vielleicht seine GPU nicht dazu verwenden.
 
Bleibt immernoch die Frage,wenn alles so normal ist,warum wird dann darüber disskutiert?
 
Bleibt immernoch die Frage,wenn alles so normal ist,warum wird dann darüber disskutiert?
Ja warum tust du das, wenn alles normal ist?[/QUOTE]
Ich diskutiere,weil ich finde das die Creditvergabe ungerecht ist[/QUOTE]
Du drehst Dich im Kreis!
Du diskutierst, weil Du diskutieren willst. Die Fakten und Argumente liegen auf dem Tisch und jeder kann sich seine Meinung bilden.

Objektiv gesehen sind die Credits mit Stock-App normal, mit optimierten Apps sehr gut, mit ATI-GPU außergewöhnlich. Aber im Prinzip ist alles in sich schlüssig und konsistent.
 
Du drehst Dich im Kreis!
Du diskutierst, weil Du diskutieren willst. Die Fakten und Argumente liegen auf dem Tisch und jeder kann sich seine Meinung bilden.

Objektiv gesehen sind die Credits mit Stock-App normal, mit optimierten Apps sehr gut, mit ATI-GPU außergewöhnlich. Aber im Prinzip ist alles in sich schlüssig und konsistent.
ach menno, ich wollte ihn noch weiter im kreis drehen lassen ;D
 
japp - deshalb rechnen auch so viele Leute bei GPUGRID oder S@H mit ihren Grakas mit - wegen der Mehrleistung des Systems und den Mehrcredits !

Ich habe ein Recht zu crunshn was ich will (außer evtl. bei nem RACE) und wenn ich MW-crunshn will dann tuh is halt - und dagegen machen kann man nix deshalb:

1. wer MW nich mag - nicht mit crunshn
2. wer was gegen Diskussionen hat - soll sich raushalten und nicht den Fred weiter aufblähen
3. GPGPU is doch toll für die Forschung ! warum die Aufregung über 100mal schnellere Berechnung ?

ES HAT SICH DOCH AUCH KEINER AUFGEREGT, DASS EIN QUADCORE MEHR CREDITS GIBT - ALS EIN SINGLECORE !


WENN IM APRIL ODER MAI DIE ATI-KARTEN SETI@HOME AUFMISCHEN - FALLEN DORT AUCH 30000-40000 CREDITS PRO TAG - ATI IST NUMA SCHNELLER - MIT NEM 4x GESPANN AUS 4890X2 GEHTS STRAFF AUF DIE 250K-400K zu
 
@Crashtest

kein grund unfreundlich zu werden!

ps.: wir sind hier nicht bei der ESL, bei uns wird es immer noch crunChen geschrieben und nicht crunShen ;)

Wie einst ein ESL'ler gesagt hat: CrunSher sind Schwul, CunCher sind Cool *rofl*
 
WENN IM APRIL ODER MAI DIE ATI-KARTEN SETI@HOME AUFMISCHEN
Das sehe ich noch nicht, zumal bei single precision (SETI) der Vorteil der ATIs doch recht ordentlich zusammenschrumpft.
Man muß ja auch mal realistisch bleiben. Ich würde fast darauf wetten, daß der ATI-Support erst mit OpenCL frühestens Mitte des Jahres kommt.
Ende März oder so soll von ATI ja erst noch die StreamSDK 1.4 kommen (noch ohne OpenCL Support), dann wahrscheinlich im Juni (meine Spekulation) die Stream-SDK 1.5 (oder 2.0?) mit OpenCL. Diese Unterstützung wurde ja offiziell für das erste Halbjahr 09 angekündigt.
 
WENN IM APRIL ODER MAI DIE ATI-KARTEN SETI@HOME AUFMISCHEN - FALLEN DORT AUCH 30000-40000 CREDITS PRO TAG - ATI IST NUMA SCHNELLER - MIT NEM 4x GESPANN AUS 4890X2 GEHTS STRAFF AUF DIE 250K-400K zu

Das warten wir dann erstmal ab. So ganz dran glauben kann ich nicht, da SETI ja nen NVIDIA Vorzeigeprojekt war/ist.8)

Zu der Credit und Crunchingdiskussion...
1. Ich habe hier noch ein paar ältere Rechner stehen deren Einsatz sich, bis auf bei Milkyway, nicht mehr lohnen würde.
2. Wenn ich die Möglichkeit habe, bei Milkyway durch Einsatz einer schneller rechnenden Graka mehr Credits zu bekommen als mit einer CPU, warum sollte ich die Graka aussen vor lassen!?
Solange die Creditvergabe sich an der erbrachten Leistung orientiert, hab ich damit keine Probleme. Dies ist hier mittlerweile der Fall.
3. Und wenn ich die finanziellen Möglickeiten hätte um in jeden meiner Rechner eine 4850 zu stecken und "Millionen";) von Credits zu erarbeiten.....ganz allein meine Sache.
Ich beschwere mich ja auch nicht darüber, dass einige Leute mehr oder schnellere Rechner haben und damit mehr Credits scheffeln.

Die Vergleichbarkeit von Projekten ist , meiner Meinung nach, schon länger nicht mehr wirklich gegeben. Alle sehen zu, dass sie mit ihrer Creditvergabe unter SETI bleiben, da ansonsten "almighty" DA auftaucht und drohend die Fäuste schüttelt.
Jetzt hat sich aber die Situation ergeben, das man von DA persönlich die Aussage bekommen hat,
Credit is based on FLOPs (100 units of credit = 1 GFLOPS/day).
Doesn't matter if it's CPU, GPU, Cell, etc.
If the GPU version is doing the same number of FLOPs/job
as the CPU version, it should get the same credit.
,
man sich danach richtet und schon sind andere wieder nicht damit einverstanden. Dann sollte man generell sämtliche GPU-Projekte in eine Extrakategorie packen.
Nur noch CPU/CPU Projekt und GPU/GPU Projekt (wobei hier wieder das Problem Single-/Double Precision auftaucht.;)).
 
Da hab ich ja mal wieder was angezettelt. :-X ;D

Immer schön locker bleiben! :)

Wir brauchen uns nicht gegenseitig an die Gurgel zu gehen, da haben wir doch oft genug Gäste die das schon für uns besorgen. ;D


Es ist halt am Ende nur so, dass nicht jedes Projekt gleichermaßen von einer GPU-App profitiert. Und dass erstrecht nicht jedes Projekt dazu in der Lage ist eine GPU-App zu stemmen.
D.h. dass diese Projekte einen ganz gravierenden Wettbewerbsnachteil haben werden bei fairer Creditvergabe für GPU-Clients (und fair für GPU-Clients heißt nun einmal, gleiche Credits für gleiche Flop/s).

Oder steh ich alleine mit der Ansicht, dass das zu einem Problem werden kann?
Klar ist die Creditinflation auch ein Problem, aber das juckt ansich erstmal nur uns User, den Projekten selber macht das nicht so viel solange sie noch ihre Rechenzeit bekommen.
 
Creditinflation haben wir sowieso - SC,DC,TC,QC,HC,OC .... nun halt etwas schneller mit SG,DG,TG,QG ... (SG = Single GPU ...)

Dies is numal der Lauf der Dinge !

Viele Projekte sind/wären dankbar für zusätzliche Leistung durch GPGPU.


S@H ATI:
Es wird eine CAL-Version geben - bis dann eine generelle OpenCL-App für alle (nicht nur ATI) kommt. Ob's CAL 1.3 oder 1.4 wird - egal hauptsache se kommt (geben soll's die schon - nicht von der "ATI"-Abteilung sondern von der "AMD"-CPU-Abteilung ....mmm testen die schon Fusion ? )

Für OpenCL fehlt noch einiges - nicht nur im Treiber.

ATI BOINC:
Naja 6.6(.9) ist fast fertsch - also Ende März/Anfang April gibt es endlich für mal nen Grund ein BOINC-Update durchzuführen ...
 
Zurück
Oben Unten