App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Ist GPGPU-Computing ein Argument für Dich eine NVIDIA-Grafikkarte zu kaufen?
- Ersteller Nero24
- Erstellt am
Bisher waren starke High-End Grafikkarten im Endkunden-Markt nur etwas für Gamer. In den letzten Monaten jedoch hat sich viel auf dem Gebiet GPGPU-Computing getan, <b>G</b>eneral <b>P</b>urpose <b>G</b>raphics <b>P</b>rocessor <b>U</b>nit Computing, also allgemeine Berechnungen, die eigentlich eine CPU erledigen sollte, über die GPU laufen zu lassen. Vor allem NVIDIA mit seiner proprietären Schnittstelle namens CUDA legt hier derzeit ordentlich vor, während ATI bzw. AMD - auf die <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1228820673">offene Schnittstelle OpenCL</a> wartend, die kürzlich vorgestellt wurde - noch eine Weile brauchen werden, um den verlorenen Boden wieder gut zu machen.
Fragt sich was ein Endanwender, der nicht spielt, mit der enormen Rechenleistung einer aktuellen GPU anfangen soll. Neben Video-Encoding gibt es nicht sehr viele für Endkunden relevante Einsatzgebiete, wo eine hohe Dauerleistung gefragt ist. Außer natürlich bei den <a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=87">Distributed Computing</a> Projekten wie SETI@Home, GPUGrid, Einstein@Home oder Folding@Home. Wenig überraschend haben sich just diese Projekte auf das Thema GPGPU-Computing gestürzt, um ihre Rechenleistung zu ver-x-fachen. Und noch weniger überraschend leistet NVIDIA fleißig Überstützung, um die Projekte zu "CUDA-fizieren", schließlich verspricht man sich so die Gunst der hundertausenden von Distributed-Computing Usern. Daher unsere Frage an die Leser:<ul><b><i>Ist der Umstand, dass Distributed Computing via BOINC derzeit nur mit einer NVIDIA-Grafikkarte möglich ist, ein Grund für Dich eine NVIDIA-Grafikkarte zu kaufen?</i></b></ul>Wir sind auf die Antworten gespannt.
Fragt sich was ein Endanwender, der nicht spielt, mit der enormen Rechenleistung einer aktuellen GPU anfangen soll. Neben Video-Encoding gibt es nicht sehr viele für Endkunden relevante Einsatzgebiete, wo eine hohe Dauerleistung gefragt ist. Außer natürlich bei den <a href="http://www.planet3dnow.de/vbulletin/forumdisplay.php?f=87">Distributed Computing</a> Projekten wie SETI@Home, GPUGrid, Einstein@Home oder Folding@Home. Wenig überraschend haben sich just diese Projekte auf das Thema GPGPU-Computing gestürzt, um ihre Rechenleistung zu ver-x-fachen. Und noch weniger überraschend leistet NVIDIA fleißig Überstützung, um die Projekte zu "CUDA-fizieren", schließlich verspricht man sich so die Gunst der hundertausenden von Distributed-Computing Usern. Daher unsere Frage an die Leser:<ul><b><i>Ist der Umstand, dass Distributed Computing via BOINC derzeit nur mit einer NVIDIA-Grafikkarte möglich ist, ein Grund für Dich eine NVIDIA-Grafikkarte zu kaufen?</i></b></ul>Wir sind auf die Antworten gespannt.
woever
Fleet Captain Special
- Mitglied seit
- 24.04.2008
- Beiträge
- 304
- Renomée
- 0
- Standort
- Hamburg
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PS3GRID, QMC, SOMAP, ABC
- Lieblingsprojekt
- PS3GRID
- Meine Systeme
- Q6600 @ 3 Ghz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Intel Q6600 @ 3 Ghz
- Mainboard
- Gigabyte P35-DS3P
- Kühlung
- Scythe Mugen
- Speicher
- 4 GB, 4 Riegel, DDR2 800
- Grafikprozessor
- Hainward 9800GTX+
- Display
- Nenq FP91V, 19"
- Netzteil
- Enermax 400W
- Betriebssystem
- Vista 64 Ultimate
- Webbrowser
- Firefpx
Ja, für mich war es der Grund. Ich habe mir erst eine 9800GTX+ Karte gekauft. Da diese immer wieder Fehler zeigt bei GPUGRID habe ich die Karte dann durch eine GTX260² Karte ersetzt. Die hat dann knapp 300 € gekostet. Mir war es das wert. Aber es muss jeder für sich emntscheiden.
neee....
BOINC auf der GPU wäre zwar evtl. ein netter Nebeneffekt - aber da die Grafikkarten eh zu laut werden bei 100% Auslastung würde ich BOINC eh nicht drauf laufen lassen.
Eher gewünscht wäre ne OpenCL Unterstützung für zukünftiges Video-Encoding (bei mir Hobby) bzw. Effektberechnung. Und das werden beide Anbieter anbieten.
Bei mir läuft so nur der QuadCore mit WaKü. Da bleibts leise.
BOINC auf der GPU wäre zwar evtl. ein netter Nebeneffekt - aber da die Grafikkarten eh zu laut werden bei 100% Auslastung würde ich BOINC eh nicht drauf laufen lassen.
Eher gewünscht wäre ne OpenCL Unterstützung für zukünftiges Video-Encoding (bei mir Hobby) bzw. Effektberechnung. Und das werden beide Anbieter anbieten.
Bei mir läuft so nur der QuadCore mit WaKü. Da bleibts leise.
FalconFly
Admiral Special
Auf der ewigen Suche nach mehr und effektiverer Rechenleistung definitiv ja, allerdings warte ich nach wie vor auf breitere Unterstuetzung und eine elegantere Umsetzung.
Da steckt noch einiges an Optimierungspotential drin.
Da steckt noch einiges an Optimierungspotential drin.
MaximumGame
Commander
- Mitglied seit
- 21.06.2008
- Beiträge
- 177
- Renomée
- 1
Ich kaufe keine Nvidia-Karten mehr, Nvidias Geschäftspolitik
wird mir immer suspekter. Daher als Antwort auf die Frage: NEIN.
Da warte ich lieber bis ich GPGPU dank OpenCL auch
sinnvol auf Radeon-Karten nutzen kann.
wird mir immer suspekter. Daher als Antwort auf die Frage: NEIN.
Da warte ich lieber bis ich GPGPU dank OpenCL auch
sinnvol auf Radeon-Karten nutzen kann.
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
cuda ist schon wieder geschichte, die zukunft gehört open-cl und dx11.
persönlich glaube ich eher an open-cl, da es eben nicht vista-bzw windows 7 abhängig ist, also auch unter xp läuft.
genau so unter linux und apple.
persönlich glaube ich eher an open-cl, da es eben nicht vista-bzw windows 7 abhängig ist, also auch unter xp läuft.
genau so unter linux und apple.
- Mitglied seit
- 16.11.2001
- Beiträge
- 21.662
- Renomée
- 1.247
- Standort
- München
- Aktuelle Projekte
- World Community Grid
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- AMD Ryzen 9 5950X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS TUF Gaming X570-Pro [WI-FI]
- Kühlung
- be quiet! Shadow Rock 3
- Speicher
- 4x 16GB DDR4-3200 Corsair Vengeance LPX
- Grafikprozessor
- ASRock Radeon RX 550 Phantom Gaming Aktiv 2GB
- Display
- LG 27UL850-W, 27"
- SSD
- Samsung 980 PRO 2TB, Samsung 840 EVO 500GB
- HDD
- Seagate Barracuda 7200.14 3TB SATA3
- Optisches Laufwerk
- Samsung SH-S183A SATA schwarz (im externen Gehäuse)
- Gehäuse
- be quiet! Silent Base 802 schwarz
- Netzteil
- be quiet! Straight Power 11 Platinum 550W
- Tastatur
- Logitech G613 Lightspeed
- Maus
- Logitech MX Master 3S
- Betriebssystem
- Ubuntu Linux 22.04
- Webbrowser
- Vivaldi
- Internetanbindung
-
▼100 MBit
▲40 MBit
Grafikkarten sind bei der Rechenleistung pro Watt zwar vermutlich effizienter als CPUs, aber absolut gesehen verbrauchen sie mir zuviel Strom, deshalb ist Crunchen mit der GPU für mich irrelevant - egal ob AMD oder NVIDIA.
Lord Voldemort
Vice Admiral Special
- Mitglied seit
- 11.08.2003
- Beiträge
- 764
- Renomée
- 5
- Prozessor
- Intel Core 2 Quad Q6600 @ 3,4 GHz
- Mainboard
- Foxconn MARS
- Kühlung
- Thermalright SI-120 & Papst 4412F/2GL
- Speicher
- 2x 2048 MB OCZ Platinum XTC DDR2-1000
- Grafikprozessor
- Zotac GeForce GTX 295
- Display
- 24" LG W2452T, 1920x1200, 16:10
- HDD
- 3x Western Digital WD6400AAKS (RAID 5), 2x Western Digital WD2500YD (RAID 0)
- Optisches Laufwerk
- Plextor PX-716A, Lite-On iHOS104
- Soundkarte
- Asus Xonar D2/PM
- Gehäuse
- NZXT Lexa Redline
- Netzteil
- be quiet! Straight Power 600W
- Betriebssystem
- Windows 7 x64,Windows XP, Windows XP x64, Windows Vista Ultimate x64
- Webbrowser
- Mozilla Firefox 4.0.1
- Schau Dir das System auf sysprofile.de an
Ich installiere extra das neueste BOINC, melde mich bei dem Beta-Krams an, installiere CUDA-Treiber, installiere das neueste CUDA-Toolkit und -SDK (wenn ich schonmal dabei bin... vielleicht programmiere ich selber mal damit...), durchsuche stundenlang alle denkbaren Foren, probiere alles mögliche aus, nur um festzustellen, daß BOINC meine 8800 GTX anscheinend nicht mag (aber auch keine wirklich aussagekräftige Fehlermeldung von sich gibt, im Gegenteil, eine CUDA-fähige Grafikkarte wird sogar gefunden). Obwohl sie sogar in der vom BOINC-Projekt verlinkten Liste der CUDA-fähigen Grafikkarten aufgeführt ist!
Ne, is klar.
Mal ganz abgesehen davon, daß ich meinen PC nicht absichtlich 100W extra verbraten lasse... das kostet dann doch ganz schön...
- GPGPU ganz allgemein ist zwar interessant, aber es gibt keine sinnvolle Software für mich (bisher zumindest). Eine Portierung von x264 oder DivX auf CUDA wäre gut. Aber diese unsäglich schlechten Transcoder-Tools von ATI oder nievidia... neee...
Ne, is klar.
Mal ganz abgesehen davon, daß ich meinen PC nicht absichtlich 100W extra verbraten lasse... das kostet dann doch ganz schön...
- GPGPU ganz allgemein ist zwar interessant, aber es gibt keine sinnvolle Software für mich (bisher zumindest). Eine Portierung von x264 oder DivX auf CUDA wäre gut. Aber diese unsäglich schlechten Transcoder-Tools von ATI oder nievidia... neee...
mariahellwig
Grand Admiral Special
Wenn die Entscheidung ansteht eine neue GPU zu kaufen wird das mit Sicherheit ein sehr wichtiges Kriterium. Nvidia werde ich hier auf absehbare Zeit favorisieren da ich nicht glaube das ATI hier in absehbarer Zeit aufschließen kann. OpenCL wird noch 12 Monate brauchen um Fahrt aufzunehmen.
C4rp3di3m
Admiral Special
- Mitglied seit
- 14.12.2007
- Beiträge
- 1.855
- Renomée
- 181
- Standort
- Berlin
- Mein Desktopsystem
- Gigabyte FTW Storm Peak Army
- Prozessor
- AMD THREADRiPPER 7960X
- Mainboard
- GIGABYTE TRX50 AERO D / X690
- Kühlung
- Alphacool Eisblock XPX Pro Aurora Full Brass Black Digital
- Speicher
- Kingston Fury Renegade PRO 6000 CL32-1T Quadchannel DDR5
- Grafikprozessor
- GIGABYTE AORUS Radeon RX 6900XTXH Xtreme Waterforce XT Copper Edition
- Display
- LG UltraGear 27GN800-B, HDR10, 144Hz, 1440p
- SSD
- Crucial MX100-256GB SSD, Kingston KC3000 NVME, Gigabyte Aorus M2 Gen4 NVME
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Dual Chip Onboard Realtek ALC4080 & ALC897
- Gehäuse
- Be Quiet Dark Base Pro 901 Big Tower
- Netzteil
- CORSiAR HX1000i ATX v3.0 Full-Modular 80+Plus Platinium
- Tastatur
- Lioncast [Mechanisch]
- Maus
- G502 HERO
- Betriebssystem
- Windows 11 PRO x64
- Webbrowser
- FireFox
- Verschiedenes
- 3 Radiatoren ST30 120HPE+2x360HPE Fullcopper Loop, Pump: VPP755 V.3 Stufe2@95L/h, 1x140mm Sys-FAN, 7x120 Radiator FAN
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
-
▼500MBit
▲100Mbit
Nein, gut finde ich dass mann ATI Karten zum XviD encoden nutzen kann jetzt, aber so ein Bionic/Seti blabla gedöns ist, kann und darf kein Argument zum Kauf sein. In erster Linie muss ein Produkt ja meine Ansprüche befriedigen. Eine Grafikkarte ist eine Grafikkarte und dat muss auch so bleiben.
mfg
mfg
KGBerlin
Grand Admiral Special
Grafikkarten sind bei der Rechenleistung pro Watt zwar vermutlich effizienter als CPUs, aber absolut gesehen verbrauchen sie mir zuviel Strom, deshalb ist Crunchen mit der GPU für mich irrelevant - egal ob AMD oder NVIDIA.
Genau meine Meinung wenn auch schöner geschrieben
Eigentlich fehlt aber noch nach dieser Antwortmöglichkeit:
"Ich habe mir deswegen bereits eine NVIDIA-Grafikkarte gekauft "
irgendwas wie:
"Ja aber ich warte auf eine ATI Karte." ^^
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Kann man nur hoffen das die anderen Projekte auch mögl. schnell auf Cuda umsteigen. Die Leistung pro Watt des Gesamtsystems steigt ja schon sehr stark an. Zwar ist der Gesamtverbrauch deutlich höher aber dafür erhält man ja auch ein vielfaches an Durchsatz.
woever
Fleet Captain Special
- Mitglied seit
- 24.04.2008
- Beiträge
- 304
- Renomée
- 0
- Standort
- Hamburg
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- PS3GRID, QMC, SOMAP, ABC
- Lieblingsprojekt
- PS3GRID
- Meine Systeme
- Q6600 @ 3 Ghz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Intel Q6600 @ 3 Ghz
- Mainboard
- Gigabyte P35-DS3P
- Kühlung
- Scythe Mugen
- Speicher
- 4 GB, 4 Riegel, DDR2 800
- Grafikprozessor
- Hainward 9800GTX+
- Display
- Nenq FP91V, 19"
- Netzteil
- Enermax 400W
- Betriebssystem
- Vista 64 Ultimate
- Webbrowser
- Firefpx
neee....
BOINC auf der GPU wäre zwar evtl. ein netter Nebeneffekt - aber da die Grafikkarten eh zu laut werden bei 100% Auslastung würde ich BOINC eh nicht drauf laufen lassen.
Eher gewünscht wäre ne OpenCL Unterstützung für zukünftiges Video-Encoding (bei mir Hobby) bzw. Effektberechnung. Und das werden beide Anbieter anbieten.
Bei mir läuft so nur der QuadCore mit WaKü. Da bleibts leise.
Das Argument "zu laut" scheint mir nur vorgeschoben zu sein. Es gibt entsprechende sehr leise Kühler, so dass die Karten nicht hörbar sind.
Ich denke die BOINC Projekte haben hier Torschlußpanik - keiner will der letzte sein, der Grafikkarten unterstützt, aber hier rein auf CUDA zu gehen ist ein Fehler in meinen Augen.
Eins ist ganz sicher:
CUDA ist bekannter als die AMD Implementierungen und bekommt auch weitaus mehr Marketing ab.
Die AMD Implementierungen sind dadurch aber nicht schlechter, obwohl sie in der Anzahl der Libraries momentan kleiner sind. Die Brook Nachkommen z.B. sind ja schon lange in Folding@Home integriert und 'relativ' einfach zu programmieren.
Meine Ansicht ist aufgrund der Entwicklungszeiten: Auf OpenCL warten ist die beste Alternative. Der Standard ist nun draussen und man kann anfangen zu programmieren. Wenn man nun anfängt eine wissenschaftliche Applikation zu porten, dann würde ich immer auf eine einheitliche Schnittstelle gehen. Wenn man nun zu CUDA geht, darf man in einem Jahr nochmal auf OpenCL wechseln.
Eins ist ganz sicher:
CUDA ist bekannter als die AMD Implementierungen und bekommt auch weitaus mehr Marketing ab.
Die AMD Implementierungen sind dadurch aber nicht schlechter, obwohl sie in der Anzahl der Libraries momentan kleiner sind. Die Brook Nachkommen z.B. sind ja schon lange in Folding@Home integriert und 'relativ' einfach zu programmieren.
Meine Ansicht ist aufgrund der Entwicklungszeiten: Auf OpenCL warten ist die beste Alternative. Der Standard ist nun draussen und man kann anfangen zu programmieren. Wenn man nun anfängt eine wissenschaftliche Applikation zu porten, dann würde ich immer auf eine einheitliche Schnittstelle gehen. Wenn man nun zu CUDA geht, darf man in einem Jahr nochmal auf OpenCL wechseln.
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Ich denke die BOINC Projekte haben hier Torschlußpanik - keiner will der letzte sein, der Grafikkarten unterstützt, aber hier rein auf CUDA zu gehen ist ein Fehler in meinen Augen.
Cuda ist halt zurzeit am weitesten. Heißt ja nicht das auch in Zukunft nur darauf gesetzt wird. Spätestens wenn DirectX11 größere Verbreitung findet hat sich das mit Cuda und Stream eh erledigt.
PS: Ich habe gerade Seti über CUDA am laufen und es ist zurzeit noch fast unbrauchbar. Der Quadcore langweilit sich und trotzdem ist surfen nebenbei kaum möglich. Das ganze System verhält etwas träge. Hab mal noch Poem nebenbei am laufen damit der Quadcore wieder Arbeit bekommt. Hab somit jetzt 5 Tasks die gleichzeitig bearbeitet werden.
PPS: Pro Seti Workunit braucht er jetzt etwas unter 8 Minuten.
Zuletzt bearbeitet:
Dhamster
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 5.860
- Renomée
- 23
- Standort
- vorm bollerwagen
- Prozessor
- Athlon 64 x2 4200+
- Mainboard
- Gigabyte GA-MA69G-S3H
- Kühlung
- Arctic Cooling Freezer 64 PWM
- Speicher
- 4x GEIL Black Dragon 2GB
- Grafikprozessor
- Xpert Vision GF 7600 GT
- Display
- LG 21" TFT
- HDD
- 1x200GB SATA, 1x 500GB SATA
- Optisches Laufwerk
- LiteOn CD-Brenner / Plextor DVD-Brenner
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Chieftech 901
- Netzteil
- BeQuiet Straight Power 450W
- Betriebssystem
- Kubuntu 9.10 x86_64
- Webbrowser
- Firefox
Da ich kein Boinc mehr mache ist es für mich uninteressant. Momentan ist für mich ein Argument pro nvidia, dass die Linux-Treiber unkomplizierter sind bzw. die ATi-Treiber bei mir noch nie richtig gelaufen sind. Ausserdem ist bei meinem Zockverhalten PhysX ein Argument... Aber halt nicht Boinc, ich bin immer noch der Meinung, dass es nicht im Sinne des Erfinders ist, extra Rechner anzuschaffen und unnötig dafür laufen zu lassen
Herby
Grand Admiral Special
- Mitglied seit
- 18.02.2005
- Beiträge
- 2.144
- Renomée
- 12
- Standort
- Jena
- Aktuelle Projekte
- SETI@Home
- BOINC-Statistiken
- Prozessor
- E8400 E0
- Mainboard
- ASUS P5E @ Rampage
- Kühlung
- NexXxos X2 Highflow
- Speicher
- 4x2GB DDR2-1100er
- Grafikprozessor
- ATi HD 3870
- Display
- 22" TFT Samsung SyncMaster 226CW (1680x1050)
- HDD
- OCZ Vertex Turbo + 2.5TB
- Optisches Laufwerk
- LG GSA-H66N, Pioneer DVR-215
- Soundkarte
- X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Thermaltake Armor
- Netzteil
- Seasonic S12 550W Energy+
- Betriebssystem
- Windows 7 64-bit
- Webbrowser
- Firefox
Auf jeden Fall ist es für mich ein Grund.
Da die beiden Hersteller im Moment eh sehr eng beieinander liegen (GTX260 216 vs. HD 4870 1GB) und jeder seine Schwächen hat (30€ teurer vs. idle Verbrauch), hat dieses Feature letztendlich den Ausschlag gegeben!
Da die beiden Hersteller im Moment eh sehr eng beieinander liegen (GTX260 216 vs. HD 4870 1GB) und jeder seine Schwächen hat (30€ teurer vs. idle Verbrauch), hat dieses Feature letztendlich den Ausschlag gegeben!
Bermuda
Lieutnant
Richtig, im Sinne des Erfinders ist es, die Idlezeit der CPUs/GPUs zu nutzen nicht mehr und nicht weniger.Da ich kein Boinc mehr mache ist es für mich uninteressant. Momentan ist für mich ein Argument pro nvidia, dass die Linux-Treiber unkomplizierter sind bzw. die ATi-Treiber bei mir noch nie richtig gelaufen sind. Ausserdem ist bei meinem Zockverhalten PhysX ein Argument... Aber halt nicht Boinc, ich bin immer noch der Meinung, dass es nicht im Sinne des Erfinders ist, extra Rechner anzuschaffen und unnötig dafür laufen zu lassen
Zum Thema: Ich kauf mir die Grafikkarte, die für mich das beste P/L Verhältnis hat - mit leichter Preferenz für NVidia (beim nächsten mal) wegen der Linuxtreiber. Wenn meine Graka nicht unterstützt wird - Pech läuft sie eben für FAH oder garnicht.
Auf Lange sicht wird es dank OpenCL egal sein und auf noch längere Sicht wird wohl NVidea aussterben, wenn Intel und AMD ihre Grafikkarten in die CPU integrieren.
Punky260
Lt. Commander
- Mitglied seit
- 18.01.2008
- Beiträge
- 115
- Renomée
- 2
- Standort
- Paderborn
- Lieblingsprojekt
- Spinhenge
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Thinkpad e320
- Prozessor
- AMD Ryzen 3 3600
- Mainboard
- MSI x470 Gaming Plus Max
- Kühlung
- Zalman CNPS 9900
- Speicher
- Corsair Vengeance 32GB DDR4-3200
- Grafikprozessor
- Asus Dual RTX 2060 A6G
- Display
- BenQ GL2450
- SSD
- Crucial P1 m.2 1TB
- Gehäuse
- Thermaltake Armor+
- Netzteil
- BeQuiet! Straight Power 850W Gold
- Betriebssystem
- Win10 x64
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Also ich schwöre eh auf nVidia, hatte deshalb auch eine 8800GTS in meinem System. Ich habe allerdings trotzdem "Das war bereits ein Grund" gewählt, da DC eines der großen Argumente war weshalb ich auf eine GTX 260 Black Edition von XFX umgestiegen bin.
Natürlich war auch das Spielen ein Grund, allerdings konnte meine 88er da ja auch noch gut mithupen ^^
Generell muss ich sagen das ich im gesamten mit den nVidia-Lösungen zufriedener bin. Besonders auch da nVidia meistens den richtigen Riecher hat was neue Technologien angeht. Mit CUDA haben sie das mal wieder bewiesen. =)
Natürlich war auch das Spielen ein Grund, allerdings konnte meine 88er da ja auch noch gut mithupen ^^
Generell muss ich sagen das ich im gesamten mit den nVidia-Lösungen zufriedener bin. Besonders auch da nVidia meistens den richtigen Riecher hat was neue Technologien angeht. Mit CUDA haben sie das mal wieder bewiesen. =)
MSMaster
Commodore Special
- Mitglied seit
- 08.05.2002
- Beiträge
- 358
- Renomée
- 1
Hi,
also ich finde schon der Umstand das manche dieser Grafikmonster über 200 Watt verbraten als Grund genug sich nicht extra dafür eine neue Grafikkarte anzuschaffen.
Der löbliche Gedanke hinter Distributet Computing heist sicherlich nicht Ressourcen (in dem Fall Energie = Co2) verschwenden auf Teufel komm raus.
Solange zwar eine normale Multicore CPU "etwas" langsamer ist als eine Grafikkarte, aber dafür dann nur einen Bruchteil an Strom verbraucht, solange ist sowas einfach nur Ressourcen Verschwendung hoch 10
also ich finde schon der Umstand das manche dieser Grafikmonster über 200 Watt verbraten als Grund genug sich nicht extra dafür eine neue Grafikkarte anzuschaffen.
Der löbliche Gedanke hinter Distributet Computing heist sicherlich nicht Ressourcen (in dem Fall Energie = Co2) verschwenden auf Teufel komm raus.
Solange zwar eine normale Multicore CPU "etwas" langsamer ist als eine Grafikkarte, aber dafür dann nur einen Bruchteil an Strom verbraucht, solange ist sowas einfach nur Ressourcen Verschwendung hoch 10
MGeee
Grand Admiral Special
- Mitglied seit
- 31.03.2004
- Beiträge
- 2.439
- Renomée
- 58
- Standort
- Hessen / Nähe Wetzlar
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Poem@Home
- Lieblingsprojekt
- (fast) alle Projekte
- Meine Systeme
- i7-2600k (nonOC)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- MaxData 12,1 Zoll CoreDuo
- Prozessor
- Intel Q6600 Core 2 Quad @ 3Ghz
- Mainboard
- Gigabyte P35-DS4
- Kühlung
- Termalright Ultra 120 eXtreme
- Speicher
- 8 GByte DDR2-800 (4x 2GByte)
- Grafikprozessor
- Gigabyte Radeon 4850
- Display
- 22 Zoll iiyama WideScreenTFT DVI-D
- HDD
- 1000 GByte Samsung F1
- Optisches Laufwerk
- DVD-Rom
- Soundkarte
- LogitechZ10 USB Boxen
- Netzteil
- 470 Watt Sharkoon Silent Storm
- Betriebssystem
- Vista 64bit Ultimate
- Webbrowser
- FireFox (seit 2005 durchgehend)
- Verschiedenes
- Samsung Q1 UMPC (800Mhz, 1GByte RAM und 60 GByte Platte mit Vista Home Premium).
Wäre ganz klar auch mit ein Grund für eine NVidia Karte, wobei meine derzeitige 4850 von Ati bei F@H auch gute Dienste leistet. Vorher hatte ich eine 8800GTS-640... bin also irgendwie immer asynchron mit der GPGPU Entwicklung.
Früher ging F@H nur mit Ati ... ich hatte eine NVidia.
Jetzt läuft F@H auf NVidias schneller und Boinc ist derzeit Nvidia-only... ich habe eine Ati Karte.
Ich wette, wenn ich nun wieder auf NVidia umsteige, läuft DC auf Atis besser .
Früher ging F@H nur mit Ati ... ich hatte eine NVidia.
Jetzt läuft F@H auf NVidias schneller und Boinc ist derzeit Nvidia-only... ich habe eine Ati Karte.
Ich wette, wenn ich nun wieder auf NVidia umsteige, läuft DC auf Atis besser .
U
User002
Guest
Obwohl ich zur Zeit - aus purer Bequemlichkeit BOINC nicht installiert habe, vermisse ich bei einer Grafikkarte die Verlustleistung nach oben zu begrenzen...Einen Leistungsstarken Quad kann ich entweder sehr leicht untertakten im idle, oder aber BOINC anweisen nur einen Teil der vorhandenen Rechenkerne für die Berechnung zu verwenden..
BOINC ist für mich daher vorläufig auf den Quad beschränkt. Es reicht schon, wenn der Hauptrechner <> Produktivrechner 100 Watt im Idle benötigt, obwohl es theoretisch mit 50 Watt getan wäre....
Und mal ganz unabhängig von den Stromkosten, finde ich das alles momentan noch zu "unkomfortabel" bzgl Installation und Administration. Schon den F@H - Client so zu installieren, das er nmit mehreren Tasks (CPU + Grafik) läuft hat mich einiges an Recherche vor ~6 Monaten gekostet. Das ist es mir aktuell nicht wert...
Trotzdem finde ich es gut, dass es immerhin die Möglichkeiten gibt, und wenn dioe ganze Sache Anwenderfreundlicher umgesetzt wäre - durchaus eine Überlegung wert. Ob mit Nvidia oder ATI- Karten ist mir dabei relativ egal, da bei mir die Credits nicht im Vordergrund stehen. Es könnte aber bei kauf den Ausschlag in die eine oder andere Richtung bewirken...
Ich warte auf praktikable Anwendungsmöglichkeiten zum Videoencoden via GPU, das wäre kaufgrund Nr. 1 für eine schnelle Grafiklösung...
Daher "nein"...
Grüße!
BOINC ist für mich daher vorläufig auf den Quad beschränkt. Es reicht schon, wenn der Hauptrechner <> Produktivrechner 100 Watt im Idle benötigt, obwohl es theoretisch mit 50 Watt getan wäre....
Und mal ganz unabhängig von den Stromkosten, finde ich das alles momentan noch zu "unkomfortabel" bzgl Installation und Administration. Schon den F@H - Client so zu installieren, das er nmit mehreren Tasks (CPU + Grafik) läuft hat mich einiges an Recherche vor ~6 Monaten gekostet. Das ist es mir aktuell nicht wert...
Trotzdem finde ich es gut, dass es immerhin die Möglichkeiten gibt, und wenn dioe ganze Sache Anwenderfreundlicher umgesetzt wäre - durchaus eine Überlegung wert. Ob mit Nvidia oder ATI- Karten ist mir dabei relativ egal, da bei mir die Credits nicht im Vordergrund stehen. Es könnte aber bei kauf den Ausschlag in die eine oder andere Richtung bewirken...
Ich warte auf praktikable Anwendungsmöglichkeiten zum Videoencoden via GPU, das wäre kaufgrund Nr. 1 für eine schnelle Grafiklösung...
Daher "nein"...
Grüße!
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.931
- Renomée
- 76
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-13500
- Mainboard
- Asrock Z690 Pro RS
- Kühlung
- be quiet! Pure Rock Slim 2
- Speicher
- 2x16GB G.Skill Aegis DDR4-3200 DIMM CL16 Dual Kit
- Grafikprozessor
- iGPU
- Display
- Benq BL258 IT
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210
- Netzteil
- Corsair CX550F
- Tastatur
- Irgendwas von Cherry
- Maus
- Logitech M100
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Bin kein BOINCer, aber wenns wirklich mal für Sachen wie Videokonvertierung viel bringen würde, wärs ein Kaufargument für mich
Stechpalme
Grand Admiral Special
- Mitglied seit
- 13.03.2008
- Beiträge
- 9.397
- Renomée
- 553
- Mein Laptop
- Asus Eee 1000H
- Prozessor
- X6 1055T/X4 810@3,25Ghz
- Mainboard
- Asrok A770DE+ / Asrock 785GMH
- Kühlung
- Xilence M612Pro / Corsair H50
- Speicher
- 2*2GB DDR2-800 GEIL / 2*2GB DDR2-800 Mushkin
- Grafikprozessor
- 5870 / Vapor-X 5770
- Display
- 22" + 22" / 22"
- Soundkarte
- Onboard / Onboard
- Gehäuse
- Fractal Define R2 / Lian Li V350
- Netzteil
- BeQuiet E7 CM 480W / BeQiuet Straight Power E6 400W
- Betriebssystem
- Win 7 64bit / Win7 64 bit
Da mich Boinc herzlich wenig interessiert, andere Anwendungen auch ATI Karten nutzen welche bei mir Relevanter sind (z.B. Photoshop und Cad) ist das für mich kein Argument zu einer nVidia Karte zu greifen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 529
- Antworten
- 0
- Aufrufe
- 550
- Antworten
- 0
- Aufrufe
- 441
- Antworten
- 13
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 1K