Ist GPGPU-Computing ein Argument für Dich eine NVIDIA-Grafikkarte zu kaufen?

Beeinflusst GPGPU-Computing via BOINC Dein Kaufverhalten bei Grafikkarten?

  • Ich habe mir deswegen bereits eine NVIDIA-Grafikkarte gekauft

    Stimmen: 31 8,5%
  • Ja, das wäre ein Grund für mich.

    Stimmen: 40 11,0%
  • Nein, nur wegen BOINC nicht.

    Stimmen: 219 60,2%
  • Nein, denn GPGPU-Computing ist für mich grundsätzlich irrelevant

    Stimmen: 56 15,4%
  • Was ist BOINC?

    Stimmen: 18 4,9%

  • Anzahl der Umfrageteilnehmer
    364
Ich schließe mich da einigen Vorschreibern an:
GPGPU-Computing ist nett, ich hab auch testweise ab+zu mal F@H auf der ATI gerechnet.
ABER: meine Kühlung ist so gebaut, daß die Lüfter bei CPU-Vollast alle noch im Silent-Mode bleiben, und der Rechner damit entsprechend leise ist. Dazu: Verbrauch auf dem Windows-Desktop, CPU-Vollast wegen Boinc: 145 Watt. Verbrauch komplett idle, CPU auf 1.2GHz/0,9V: 105 Watt. Macht 40 Watt für Boinc, das ist erträglich.
Die 4870 zieht unter Last 100 Watt mehr, und heizt dann den Rechner so auf, daß alle Lüfter auf volle Leistung gehen. Das ist es mir weder vom Stromverbrauch noch von der Lärmkulisse her wert.

Prinzipiell ist es aber schon nett, wenn die in der GPU steckende Leistung auch in non-3D-Anwendungen genutzt werden kann, eben wie in den schon erwähnten Video-Encodern, aber eben nur on-demand, und nicht im Dauereinsatz.

Cherry
 
alles schön und gut

Q) Does SETI@home run GPU and CPU versions simultaneously?
No. If BOINC determines your CPU is capable of running the CUDA version, only the CUDA version of SETI@home will run. One copy will run on each GPU you have installed. If you want to keep your CPUs occupied at the same time, you can join another BOINC project.


damit schliesst sich die Sache.

nen Quad mit guter opt clients ist immer noch um längen schneller.

http://setiathome.berkeley.edu/cuda_faq.php

mfg
Sir Ulli
 
Bei mir läuft BOINC auf allen Kisten mit nur 10%.
Schließlich wächst Strom auch nicht auf den Bäumen.
Von daher verwundert mich auch das bisherige Ergebnis der Umfrage nicht.
 
Ich sehe die etwas höheren Stromkosten als Spende an.
Deswegen spende ich auch woanders kein Geld, wenn dazu aufgerufen wird (Flutkatastrophen, etc.).

Die Rechenleistung meines schnellen Prozessors und meiner Grafikkarte liegt ja sonst brach.
Bei den PCs, auf denen kein Boinc oder F@H läuft, kann man sich ziemlich sicher sein, dass diese Systeme wärend ihrer 2-4 jährigen Laufzeit nur eine kumulierte CPU-Nutzung von 1-3% haben.
Ich kann aus dem Stehgreif keinen Gegenstand aufweisen, der über die Laufzeit ähnlich wenig ausgelastet wird (außer vielleicht eine Sitzheizung in einem Auto in Afrika). Deswegen finde ich Distributed Computing ja so eine wunderbare Sache... und mit viel Glück haben meine CPU/GPU-Berechnungen z.B. die Krebsforschung um den entscheidenden Schritt vorangebracht. Zudem gibt es hier imm P3D noch eine tolle Distributed Computing Community.
 
Für meinen neuen Rechner wollte ich eine Graffikarte, die in Spielen schnell genung ist, vom Preis vertretbar ist. Außerdem hab ich Interesse an GPGPU und hab mich deshalb auf www.gpgpu.org über die Unterstützung, die Möglichkeiten und die Dokumentation informiert. Die klare Aussage war, dass NVIDIA derzeit mit CUDA von der Nutzbarkeit eindeutig vorne liegt. Es gibt bereits viele Implementierungen von Algorithmen die man sich ansehen kann und man erzielt auch deutlich leichter erste Erfolge als bei ATI.

Von der reinen Roh-Leistung sind die ATI-Karten besser, aber nutzen muss man sie erst.

Das war dann auch der Grund warum es eine NVIDIA wurde, eine 9800GT (vermutlich sogar ein 92b chip (65 nm)).
 
Also wäre für mich sicher kein Kaufkriterium. Wenn es nebenher auf dem Prozzi läuft, ist mir da egal. Sonst aber geht es mir auch so, daß Schluß ist wenn die KIste zu laut wird. Das passiert zwangsläufig, wenn die Graka ausgelastet wird wg Netzteil und Gehäuselüftern. Beim Spielen stört das ja nicht, bei allem anderen aber scho.
Was den Stromverbrauch angeht, bin ich eher der Meinung, daß es sinnvoller ist das Geld zu Spenden, so daß man die Programme optimiert oder die sich ne neue KIste kaufen können, die wesentlich effizienter arbeitet als meine es je tun wird.
 
Meiner Meinung nach sollten die lieber schauen das die Grakas weniger Strom verbrauchen als sie für Berechnungen zu verwenden. Im dem sinne ist es für mich kein Kaufargument.
CPU berechnungen sind ok, da kann man sich einen Stromsparenden PC bauen, aber mit GPU berechnungen ist das so gut wie unmöglich.
 
Meiner Meinung nach sollten die lieber schauen das die Grakas weniger Strom verbrauchen als sie für Berechnungen zu verwenden. Im dem sinne ist es für mich kein Kaufargument.
CPU berechnungen sind ok, da kann man sich einen Stromsparenden PC bauen, aber mit GPU berechnungen ist das so gut wie unmöglich.

Das würde ich so nicht sagen. kommt auf die Karte und die Anwendung drauf an. Wäre aber mal interessant zu berechnen. Manche dinge laufen auf einer Grafikkarte nicht nur ein bisschen sondern bedeutend schneller als auf einer CPU, gleich welche CPU.

Mich würde viel mehr interessieren ob Cad echte Vorteile aus GPGPU ziehen kann, ebenso Photoshop. Wie sich das im Alltag beim arbeiten anfühlt. Boinc ist ja nett, aber das ist in meinen Augen eine Nebenbeschäftigung. Ich will am Recner aber auch arbeiten da interessieren mich andere Dinge.
 
alles schön und gut

Q) Does SETI@home run GPU and CPU versions simultaneously?
No. If BOINC determines your CPU is capable of running the CUDA version, only the CUDA version of SETI@home will run. One copy will run on each GPU you have installed. If you want to keep your CPUs occupied at the same time, you can join another BOINC project.


damit schliesst sich die Sache.

nen Quad mit guter opt clients ist immer noch um längen schneller.

http://setiathome.berkeley.edu/cuda_faq.php

mfg
Sir Ulli

Dafür gibt es ja Multiuser OS, ein Benutzer lässt CUDA BOINC laufen und einer CPU BOINC, schon kannst du beides mit dem selben Projekt auslasten.
 
Meiner Meinung nach sollten die lieber schauen das die Grakas weniger Strom verbrauchen als sie für Berechnungen zu verwenden. Im dem sinne ist es für mich kein Kaufargument.
CPU berechnungen sind ok, da kann man sich einen Stromsparenden PC bauen, aber mit GPU berechnungen ist das so gut wie unmöglich.

In einigen Anwendungen sind die GPUs locker um den Faktor 10 schneller. Ist eine Schande diese Rechenleistung brach liegen zu lassen anstatt etwas Sinnvolles damit zu machen. :w_vogel: Es führt kein Weg an Konzepte ala Hybrid-SLI vorbei wobei diese noch nicht so ausgereift sind. :( Aber das aktuelle Macbook Pro macht es ja mit seiner Geforce 9600 und seiner Onboard 9400 schon ganz gut vor.
 
Zuletzt bearbeitet:
Ich denk am meisten strom kann man sparen, wenn man ne karte zum zocken hat, die man dann auch nur bei zocken anschaltet, die darf dan vonmiraus auch gut saft ziehen. Aber dann, wenn man zb. im internet surft reicht auch eine hd3200, die onboard ist locker aus. Solange die Hersteller nicht gute Idlewerte und dabei richtig gute rechenleistung vereinen können, bleib ich mit meinen 2 karten gut im rennen. Mein System braucht so im idle weit weniger als 60watt.
 
Ich habe für Antwort 2 gestimmt. (Ja, das wäre ein Grund für mich)
Im Frühjahr/Sommer habe ich den kauf einer Grafikkarte für DC geplant. Wenn bis dahin AMD/ATI in diesem Bereich bessere Ergebnisse erzielen sollte hole ich mir so eine Grafikkarte. Wenn nicht wird es eine Nvidia werden.
 
[X]Nein, GPGPU ist zwar grundsätzlich interessant, aber entsprechende Software erwarte ich erst mit OpenCL (was die Herstellerwahl wieder ausschließt).
Dem schliesse ich mich einfach mal an. Das trifft es auch bei mir ziemlich exakt (auch wenn ich für Antwort 3 gestimmt habe :) ). Da ich selbst Entwickler bin, weiss ich die Vorzüge offener Standards wie OpenCL zu schätzen. Und das sieht die Industrie glücklicherweise genauso (siehe auch die Mitglieder der Khronos Group). Da kann nVidia mit ihrem proprietären CUDA von mir aus machen, was sie wollen. Das ist für mich keine Option. Und erst recht nicht, den Kauf meiner Hardware danach auszurichten.
 
Wie wäre es mit "Nein, ich warte auf OpenCL"
 
Mir ist BOINC ziemlich wurst, aber eine Nvidia karte fuer Folding@Home habe ich trotzdem.:w_zwinker:
Meine 86gt rechnet schon einigermassen effizient.
 
Ich habe mir bereits schon 2 NVidia Karten gekauft, aber BIONC ist nicht der Grund dafuer, auch wenn es sicherlich interressant ist.;)

MfG,
sockel tw2+
 
ist für mich da eher ein netter Bonus. gekauft hab ich mir meine letzten Nvidia karten weil ich keine Lust mehr auf die Treiber von AMD/ATI hab.
 
DC auf GPU ist für mich persönlich nicht wirklich interessant (Stromverbrauch), jedoch gibt es z.B. auch die Möglichkeit FIR Filter über die GPU laufen zu lassen, sowas wäre vielleicht mal interessant;
http://koonlab.com/CUDA_RealFIR/CUDA Real FIR.html
 
Distributed Computing nicht, aber wenns mal was bei Videokonvertierung und Konsorten bringt, dann wirds interessant
 
nVIDIA CUDA ist für mich bei Boinc kein Kaufgrund, da die CAL & Brook Implementierung für Boinc in Arbeit ist .... dauert halt noch da AMD nich so viel Geld für "Falschwerbung" wie nVIDIA verteilt (bedenkt die sogannte und hochgepriesene Leistung einer GTX260 bei doubleprezi - langsamer als ein 97xx Quad von Intel / 98xx Quad von AMD)
 
Mit Nvidia war ich bis auf ein Abit Mobo mit 590er Chipsatz nie zufrieden. 2 Grafikkarten mit defekten Lüftern und in Spielen auch nicht schneller als ATi-Karten. Mittlerweile läuft in meinem Recher die 5 Karte mit AMD/ATi-Chipsatz. Nur ein RMA-Fall dabei (und den hab ich selbst verschuldet, also eigentlich kein RMA, sondern eigene Blödheit ;)!) Fänds praktischer, wenn für solche Angelegentheiten auch AMD7ATi-Chipsätze rangezogen würden. Hätten alle mehr von ...

Gruß

Cypher
 
Zurück
Oben Unten