App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
GPU Client PPD Vergleichsthread
- Ersteller indiana_74
- Erstellt am
JKuehl
Grand Admiral Special
- Mitglied seit
- 22.06.2003
- Beiträge
- 7.903
- Renomée
- 145
- Standort
- Stockholm, Schweden
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- POEM, SIMAP
- Lieblingsprojekt
- SIMAP, POEM
- Meine Systeme
- Q6600
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen-3700x
- Mainboard
- Asus B350 Prime Plus
- Kühlung
- Fractal Design Celsius 240
- Speicher
- 48 GB Corsair LPX 3000
- Grafikprozessor
- 1080ti
- Display
- 28" Samsung 3840x2160
- SSD
- Samsung Evo 960 500Gb
- Soundkarte
- Creative X-Fi Titanium PCIe
- Netzteil
- Be Quiet Dark Power 650
- Betriebssystem
- Windows 10 64 Bit
gut zu wissen.. Hast du es mit dem Normalen Remotedesktop probiert (da ist es klar dass nichts mehr geht) oder mit LogMeIn (das sollte weiterhin gehen, weil ein Mirrortreiber verwendet wird und der normale Grafiktreiber weiterlaeuft)
indiana_74
Moderator
☆☆☆☆☆☆
★ Themenstarter ★
- Mitglied seit
- 24.02.2006
- Beiträge
- 8.178
- Renomée
- 481
- Standort
- in der Hauptstadt
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Milkyway - SETI - QMC
- Meine Systeme
- V8 XEON
- BOINC-Statistiken
- Prozessor
- AMD Athlon 64 FX-60
- Mainboard
- Gigabyte GA-K8N PRO-SLI
- Kühlung
- WaKü v. Coolermaster
- Speicher
- 2x1024MB Kingston DDR-RAM
- Grafikprozessor
- Sapphire RADEON X600 128MB
- Display
- 19" Fujitsu Siemens TFT
- HDD
- 250GB Maxtor S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Soprano
- Betriebssystem
- Win XP
- Webbrowser
- Firefox 2.0
gut zu wissen.. Hast du es mit dem Normalen Remotedesktop probiert (da ist es klar dass nichts mehr geht) oder mit LogMeIn (das sollte weiterhin gehen, weil ein Mirrortreiber verwendet wird und der normale Grafiktreiber weiterlaeuft)
normaler Remotedesktop!
.
EDIT :
.
Bin nun mal ein wenig am benchen und takten bei meiner Karte.
Einer Erhöhung der Core Frequenz kann man sich wie es aussieht sparen, die GTX280 verfügt ja über ein Powermanagement und sobald ich den folding-Client starte taktet er den Core automatisch auf 100MHz runter.
Ich teste dann jetzt mal was es bringt die Shader und Memory Frequenz zu erhöhen.
usch65
Commodore Special
- Mitglied seit
- 21.10.2006
- Beiträge
- 491
- Renomée
- 22
- Standort
- Frechen
- Prozessor
- Intel C2D E8400 @ 3510MHz
- Mainboard
- Gigabyte GA-P35-DS3 Rev.1 @ F13i
- Kühlung
- Xigmatek HDT-S1283
- Speicher
- 4x 1GB A-Data Vitesta Extreme Edition PC800@975
- Grafikprozessor
- Elitegroup N8800GT-512MX @ Arctic Cooling Accelero S1 inkl. Turbo Module
- Display
- Samsung SyncMaster1100p 21"
- HDD
- Samsung SP2504C & Samsung HD252KJ
- Optisches Laufwerk
- LG Electronics GSA-H66N
- Soundkarte
- OnBoard Realtek HD-Audio Chip
- Gehäuse
- Antec P180 Silber
- Netzteil
- X-Spice Croon BF 850 Watt
- Betriebssystem
- WindowsXP Pro. SP2 & Updates
- Webbrowser
- Firefox 3.0
- Schau Dir das System auf sysprofile.de an
Danke, indiana_74.Nice to read you
So wie es gerade aussieht gibt es wohl neue WU's mit der Bezeichnung "5200"!8)
Muss aber noch abwarten was die so bringen werden...
(werd dann später einen neuen Screenshot einstellen - wenn die Werte mal da sind)
indiana_74
Moderator
☆☆☆☆☆☆
★ Themenstarter ★
- Mitglied seit
- 24.02.2006
- Beiträge
- 8.178
- Renomée
- 481
- Standort
- in der Hauptstadt
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Milkyway - SETI - QMC
- Meine Systeme
- V8 XEON
- BOINC-Statistiken
- Prozessor
- AMD Athlon 64 FX-60
- Mainboard
- Gigabyte GA-K8N PRO-SLI
- Kühlung
- WaKü v. Coolermaster
- Speicher
- 2x1024MB Kingston DDR-RAM
- Grafikprozessor
- Sapphire RADEON X600 128MB
- Display
- 19" Fujitsu Siemens TFT
- HDD
- 250GB Maxtor S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Soprano
- Betriebssystem
- Win XP
- Webbrowser
- Firefox 2.0
Danke, indiana_74.
So wie es gerade aussieht gibt es wohl neue WU's mit der Bezeichnung "5200"!8)
Muss aber noch abwarten was die so bringen werden...
(werd dann später einen neuen Screenshot einstellen - wenn die Werte mal da sind)
Hab jetzt auch eine davon bekommen und durch, leider gibts bisher nirgends Infos zu dem Projekt also keinen Plan was die an Punkten bringt.
Projekt : 5200 (unbekannt)
-- GPU --
Minimale Frame-Dauer : 11s
Gemittelte Frame-Dauer : 11s
Aktuelle Frame-Dauer : 12s
L3F-Frame-Dauer : 12s
Effektive Frame-Dauer : 9s
- Mitglied seit
- 16.11.2001
- Beiträge
- 21.693
- Renomée
- 1.275
- Standort
- München
- Aktuelle Projekte
- World Community Grid
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- AMD Ryzen 9 5950X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS TUF Gaming X570-Pro [WI-FI]
- Kühlung
- be quiet! Shadow Rock 3
- Speicher
- 4x 16GB DDR4-3200 Corsair Vengeance LPX
- Grafikprozessor
- ASRock Radeon RX 550 Phantom Gaming Aktiv 2GB
- Display
- LG 27UL850-W, 27"
- SSD
- Samsung 980 PRO 2TB, Samsung 840 EVO 500GB
- HDD
- Seagate Barracuda 7200.14 3TB SATA3
- Optisches Laufwerk
- Samsung SH-S183A SATA schwarz (im externen Gehäuse)
- Gehäuse
- be quiet! Silent Base 802 schwarz
- Netzteil
- be quiet! Straight Power 11 Platinum 550W
- Tastatur
- Logitech G613 Lightspeed
- Maus
- Logitech MX Master 3S
- Betriebssystem
- Ubuntu Linux 24.04
- Webbrowser
- Vivaldi
- Internetanbindung
-
▼100 MBit
▲40 MBit
http://fah-web.stanford.edu/psummaryB.html
-> 98 Punkte
-> 98 Punkte
MGeee
Grand Admiral Special
- Mitglied seit
- 31.03.2004
- Beiträge
- 2.439
- Renomée
- 58
- Standort
- Hessen / Nähe Wetzlar
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Poem@Home
- Lieblingsprojekt
- (fast) alle Projekte
- Meine Systeme
- i7-2600k (nonOC)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- MaxData 12,1 Zoll CoreDuo
- Prozessor
- Intel Q6600 Core 2 Quad @ 3Ghz
- Mainboard
- Gigabyte P35-DS4
- Kühlung
- Termalright Ultra 120 eXtreme
- Speicher
- 8 GByte DDR2-800 (4x 2GByte)
- Grafikprozessor
- Gigabyte Radeon 4850
- Display
- 22 Zoll iiyama WideScreenTFT DVI-D
- HDD
- 1000 GByte Samsung F1
- Optisches Laufwerk
- DVD-Rom
- Soundkarte
- LogitechZ10 USB Boxen
- Netzteil
- 470 Watt Sharkoon Silent Storm
- Betriebssystem
- Vista 64bit Ultimate
- Webbrowser
- FireFox (seit 2005 durchgehend)
- Verschiedenes
- Samsung Q1 UMPC (800Mhz, 1GByte RAM und 60 GByte Platte mit Vista Home Premium).
Ich hab mein Problem behoben .... sowas blödes hatte ich ja lange nicht *kopfschüttel*
Ich hab mich per Remotedesktop auf der Kiste eingeklingt um zu sehen ob alles läuft und genau damit hab ich dafür gesorgt das nix mehr geht
Der Ferngewartete Rechner verwendet für die Remotesitzung einen anderen Grafiktreiber, der folding-Client sieht "Hey da ist ja gar keine GTX280 mehr drin!" und das unheil nimmt seinen Lauf.
Lässt sich natürlich per Remote auch nicht mehr beheben.
Heute früh einfach nur angemeldet, folding gestartet, läuft!
.
EDIT :
.
Nice to read you
wie jetzt, per Remotedesktop (als Windows Terminal Session, RDP über Port 3389) wechselt das System auf einen anderen Grafiktreiber?
Ich dachte, dass passiert nur mit einer Fernsteuerun wie z.B. VNC (Treiber VNC Hook o.Ä.) oder Remote Admin.
Gut zu wissen. Dann kann ich mir den Aufwand sparen, ein paar Server mit Grakas zu versorgen, da ich auf die meisten Systeme sowieso nur via RDP draufkomme :/ .
EDIT: hast Du schonmal mit VNC o.Ä. probiert? Die bringen soweit ich weiß auch nen eigenen Treiber mit... würde mich mal interessieren, ob das Problem trotzdem vorhanden ist.
Sway Dizzle
Grand Admiral Special
@ Usch65: Mit der Elitegroup muß doch noch mehr Takt raus zu quetschen sein,oder ist die schon am Ende?
indiana_74
Moderator
☆☆☆☆☆☆
★ Themenstarter ★
- Mitglied seit
- 24.02.2006
- Beiträge
- 8.178
- Renomée
- 481
- Standort
- in der Hauptstadt
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Milkyway - SETI - QMC
- Meine Systeme
- V8 XEON
- BOINC-Statistiken
- Prozessor
- AMD Athlon 64 FX-60
- Mainboard
- Gigabyte GA-K8N PRO-SLI
- Kühlung
- WaKü v. Coolermaster
- Speicher
- 2x1024MB Kingston DDR-RAM
- Grafikprozessor
- Sapphire RADEON X600 128MB
- Display
- 19" Fujitsu Siemens TFT
- HDD
- 250GB Maxtor S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Soprano
- Betriebssystem
- Win XP
- Webbrowser
- Firefox 2.0
Vorhin stand das da nich, isch schwöre ey
.
EDIT :
.
EDIT: hast Du schonmal mit VNC o.Ä. probiert? Die bringen soweit ich weiß auch nen eigenen Treiber mit... würde mich mal interessieren, ob das Problem trotzdem vorhanden ist.
Bisher nicht probiert, mach ich gern morgen mal.
JKuehl
Grand Admiral Special
- Mitglied seit
- 22.06.2003
- Beiträge
- 7.903
- Renomée
- 145
- Standort
- Stockholm, Schweden
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- POEM, SIMAP
- Lieblingsprojekt
- SIMAP, POEM
- Meine Systeme
- Q6600
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen-3700x
- Mainboard
- Asus B350 Prime Plus
- Kühlung
- Fractal Design Celsius 240
- Speicher
- 48 GB Corsair LPX 3000
- Grafikprozessor
- 1080ti
- Display
- 28" Samsung 3840x2160
- SSD
- Samsung Evo 960 500Gb
- Soundkarte
- Creative X-Fi Titanium PCIe
- Netzteil
- Be Quiet Dark Power 650
- Betriebssystem
- Windows 10 64 Bit
ich test das nachher mal mit LogMeIn - da klapps auch Games per Remote zu starten also sollte das mit FAH auch lüppen.
usch65
Commodore Special
- Mitglied seit
- 21.10.2006
- Beiträge
- 491
- Renomée
- 22
- Standort
- Frechen
- Prozessor
- Intel C2D E8400 @ 3510MHz
- Mainboard
- Gigabyte GA-P35-DS3 Rev.1 @ F13i
- Kühlung
- Xigmatek HDT-S1283
- Speicher
- 4x 1GB A-Data Vitesta Extreme Edition PC800@975
- Grafikprozessor
- Elitegroup N8800GT-512MX @ Arctic Cooling Accelero S1 inkl. Turbo Module
- Display
- Samsung SyncMaster1100p 21"
- HDD
- Samsung SP2504C & Samsung HD252KJ
- Optisches Laufwerk
- LG Electronics GSA-H66N
- Soundkarte
- OnBoard Realtek HD-Audio Chip
- Gehäuse
- Antec P180 Silber
- Netzteil
- X-Spice Croon BF 850 Watt
- Betriebssystem
- WindowsXP Pro. SP2 & Updates
- Webbrowser
- Firefox 3.0
- Schau Dir das System auf sysprofile.de an
Hi,@ Usch65: Mit der Elitegroup muß doch noch mehr Takt raus zu quetschen sein,oder ist die schon am Ende?
da geht evtl schon was mehr noch, ich bin aber lieber auf der sicheren Seite weil ich jetzt vornehmlich spiele und da ist's nervend wenn ein Spiel mitten im Level evtl abschmiert - verstehst?!
Mit den Einstellungen läuft sie 100%, deshalb hab ich so ja auch das BIOS neu geflashed - das bisschen "mehr" jetzt ist nur mal eben für's Folding gewesen.
Sway Dizzle
Grand Admiral Special
Naja,aber die ECS hat den S1 drauf und sollte somit sehr sehr kühl laufen. Da kann man schon noch was geben. 8)
update meinerseits: ich habe den treiber nochmal sauber deinstalliert und den neuen draufgeworfen (samt ausgetauschter inf, logisch).
geändert hat sich nix.
ach ja, ich hab aber nochmal die genau punktzahl bei FaHmon nachgeschaut: 3528 PPDs.
ich nutze das beta-build vom 10.06.08 - das sollte ja das richtige sein, oder?
nu ja, ich habe FaH jetzt einem kern zugewiesen, der dann zwar 100% last hat, dafür ist das ruckeln deutlich weniger.
geändert hat sich nix.
ach ja, ich hab aber nochmal die genau punktzahl bei FaHmon nachgeschaut: 3528 PPDs.
ich nutze das beta-build vom 10.06.08 - das sollte ja das richtige sein, oder?
nu ja, ich habe FaH jetzt einem kern zugewiesen, der dann zwar 100% last hat, dafür ist das ruckeln deutlich weniger.
Sway Dizzle
Grand Admiral Special
Hmmm,irgendwas läuft da net rund bei dir. Bei mir sieht es zur Zeit so mit der CPU Auslastung aus.
Zuletzt bearbeitet:
6048ppd / Projekt 5002 / 9800GTX / 512MB / 760MHz Core / 1000MHz Ram / 1900MHz Shader / RaptorXP
Das stimmt so nicht. Ich habe eine Leadtek PX8800 GTS 512 MB die sehr gut zu Takten geht. Wird wohl auf dem Niveau einer 9800 GTX liegen, aber es ist trotzdem keine.
Nachtrag:
Projekt : 5003
Core : GPUv2 Gromacs
Frames : 100
Punkte : 479
-- Folding@GPU2 --
Minimale Frame-Dauer : 1mn 15s - 5518.08 ppd
Gemittelte Frame-Dauer : 1mn 15s - 5518.08 ppd
Aktuelle Frame-Dauer : 1mn 20s - 5173.20 ppd
L3F-Frame-Dauer : 1mn 17s - 5374.75 ppd
Effektive Frame-Dauer : 1mn 15s - 5518.08 ppd
Deinstalliere mal das Cuda-Toolkit und alles was damit zu tun hat auch.
Im neuen Treiber ist die Cuda Unterstützung bereits enthalten.
Das CUDA Toolkit hat nicht im Geringsten etwas mit dem Rechnen bei Folding@Home zu tun.
Man braucht weder das SDK noch das Toolkit, es sei denn man will eigenen CUDA-Code fabrizieren. Ich arbeite damit.
Der Treiber wird sozusagen zur Installationszeit für die entsprechende Hardware konfektioniert. Das hat den Vorteil, dass bspw. Folding@Home auf beliebig vielen Streamprozessoren läuft und das ganze nahezu optimal mit der Zunahme der Zahl der Streamprozessoren skaliert. Einer diese Streamprozessoren kann ja theoretisch 96 Threads gleichzeitig managen.
Durch das CUDA erreicht man eine optimale Hardwareabstraktion, eine radikale Änderung der Hardware ist jederzeit möglich. Nicht wie vor ein paar Jahren dieses gebastel über die Grafik-API OpenGL.
Wenn man nicht ganz dumme Programme mit CUDA schreibt, hängt die Geschwindigkeit wohl ganz ausschließlich von der Entwicklungsstufe und Qualität der Treiber ab und liegt damit ganz allein in den Händen NVIDIA's. Natürlich sollte man Erfahrung was die Thread-Programmierung betrifft, mitbringen. Wenn man hier was falsch macht, war natürlich alles für die Katz.
Was die Rechengeschindigkeit betrifft ist also der CUDA-Assembler im Treiber, und nicht die der Grafikteil des Treibers verantwortlich. Es kann also sein, das der beste Spieletreiber nicht der beste CUDA-Treiber ist. Wir nehmen jetzt mal der Einfachheit halber an, dass der neuste Treiber der Beste ist.
Wir haben als keinen direkten Einblick um welche Version es sich bei dem CUDA-Teil im Treiber handelt. Der 177.35 unterstützt CUDA 2.0 mehr wissen wir nicht. Vielleicht wäre es besser und transparenter, wenn das CUDA-Feature seperat installiert werden könnte. Vielleicht geht das ja auch nicht. Soviel wird wohl NVIDIA nicht verraten.
Wir brauchen also weder Libraries noch Laufzeitumgebungen. Der CUDA-Code compiliert durch Open64, welcher PTX-Files (Parallel Thread eXecution) erzeugt, liegt uns schon vor. Diese PTX-Files sind nicht GPU spezifisch und müssen erst durch den PTX to Target Translator angepasst werden. Das Teil befindet sich im Treiber, das ist der CUDA-Teil.
Zum Erzeugen des nötigen CPU-Codes wird der EDG-Preprozessor genutzt, der vor dem Open64 in Aktion tritt und den Code in die beiden Architekturen für CPU und GPU aufsplittet. Hier kann auch optimiert werden um beispielsweise die CPU-Last so gering wie möglich zu halten.
Jetzt erstma gute Nacht.
Zuletzt bearbeitet:
indiana_74
Moderator
☆☆☆☆☆☆
★ Themenstarter ★
- Mitglied seit
- 24.02.2006
- Beiträge
- 8.178
- Renomée
- 481
- Standort
- in der Hauptstadt
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Milkyway - SETI - QMC
- Meine Systeme
- V8 XEON
- BOINC-Statistiken
- Prozessor
- AMD Athlon 64 FX-60
- Mainboard
- Gigabyte GA-K8N PRO-SLI
- Kühlung
- WaKü v. Coolermaster
- Speicher
- 2x1024MB Kingston DDR-RAM
- Grafikprozessor
- Sapphire RADEON X600 128MB
- Display
- 19" Fujitsu Siemens TFT
- HDD
- 250GB Maxtor S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Soprano
- Betriebssystem
- Win XP
- Webbrowser
- Firefox 2.0
Das CUDA Toolkit hat nicht im Geringsten etwas mit dem Rechnen bei Folding@Home zu tun.
Man braucht weder das SDK noch das Toolkit, es sei denn man will eigenen CUDA-Code fabrizieren. Ich arbeite damit.
Der Treiber wird sozusagen zur Installationszeit für die entsprechende Hardware konfektioniert. Das hat den Vorteil, dass bspw. Folding@Home auf beliebig vielen Streamprozessoren läuft und das ganze nahezu optimal mit der Zunahme der Zahl der Streamprozessoren skaliert. Einer diese Streamprozessoren kann ja theoretisch 96 Threads gleichzeitig managen.
Durch das CUDA erreicht man eine optimale Hardwareabstraktion, eine radikale Änderung der Hardware ist jederzeit möglich. Nicht wie vor ein paar Jahren dieses gebastel über die Grafik-API OpenGL.
Wenn man nicht ganz dumme Programme mit CUDA schreibt, hängt die Geschwindigkeit wohl ganz ausschließlich von der Entwicklungsstufe und Qualität der Treiber ab und liegt damit ganz allein in den Händen NVIDIA's. Natürlich sollte man Erfahrung was die Thread-Programmierung betrifft, mitbringen. Wenn man hier was falsch macht, war natürlich alles für die Katz.
Was die Rechengeschindigkeit betrifft ist also der CUDA-Assembler im Treiber, und nicht die der Grafikteil des Treibers verantwortlich. Es kann also sein, das der beste Spieletreiber nicht der beste CUDA-Treiber ist. Wir nehmen jetzt mal der Einfachheit halber an, dass der neuste Treiber der Beste ist.
Wir haben als keinen direkten Einblick um welche Version es sich bei dem CUDA-Teil im Treiber handelt. Der 177.35 unterstützt CUDA 2.0 mehr wissen wir nicht. Vielleicht wäre es besser und transparenter, wenn das CUDA-Feature seperat installiert werden könnte. Vielleicht geht das ja auch nicht. Soviel wird wohl NVIDIA nicht verraten.
Wir brauchen also weder Libraries noch Laufzeitumgebungen. Der CUDA-Code compiliert durch Open64, welcher PTX-Files (Parallel Thread eXecution) erzeugt, liegt uns schon vor. Diese PTX-Files sind nicht GPU spezifisch und müssen erst durch den PTX to Target Translator angepasst werden. Das Teil befindet sich im Treiber, das ist der CUDA-Teil.
Zum Erzeugen des nötigen CPU-Codes wird der EDG-Preprozessor genutzt, der vor dem Open64 in Aktion tritt und den Code in die beiden Architekturen für CPU und GPU aufsplittet. Hier kann auch optimiert werden um beispielsweise die CPU-Last so gering wie möglich zu halten.
Jetzt erstma gute Nacht.
Ich danke dir für diese ausführliche Erklärung und bin mal so frei deinen Text in das Startposting zu übernehmen.
usch65
Commodore Special
- Mitglied seit
- 21.10.2006
- Beiträge
- 491
- Renomée
- 22
- Standort
- Frechen
- Prozessor
- Intel C2D E8400 @ 3510MHz
- Mainboard
- Gigabyte GA-P35-DS3 Rev.1 @ F13i
- Kühlung
- Xigmatek HDT-S1283
- Speicher
- 4x 1GB A-Data Vitesta Extreme Edition PC800@975
- Grafikprozessor
- Elitegroup N8800GT-512MX @ Arctic Cooling Accelero S1 inkl. Turbo Module
- Display
- Samsung SyncMaster1100p 21"
- HDD
- Samsung SP2504C & Samsung HD252KJ
- Optisches Laufwerk
- LG Electronics GSA-H66N
- Soundkarte
- OnBoard Realtek HD-Audio Chip
- Gehäuse
- Antec P180 Silber
- Netzteil
- X-Spice Croon BF 850 Watt
- Betriebssystem
- WindowsXP Pro. SP2 & Updates
- Webbrowser
- Firefox 3.0
- Schau Dir das System auf sysprofile.de an
Hi,...
4980.00 ppd / Project 5002 / 8800 GT SC / 512 MB / 650 MHz Core / 950 MHz Ram / 1756 MHz Shader (Shader default ist 1625)
52° GPU Temp @ Wakü
Werd mal noch bissel mit der Taktung spielen
Gruß Klödhilf
kannst du mir mal bitte sagen wie du deine 8800GT auf einen Shadertakt von 1756 gebracht hast?! Ich bekommen bei meiner nur einen von entweder 1728 oder als nächste Stufe einen von 1782 hin! Wenn du das mit RivaTuner oder so eingestellt hast solltest du deinen Realtakt mal noch mit z.B. Everest 4.50 überprüfen, denn wie gesagt ich bekommen keinen Takt von 1756 bei meiner GraKa zum laufen - bei dieser Einstellung läuft der Takt noch immer mit nur 1728MHz!
Und noch etwas zu deiner Temp. - da lieg ich ja gerade einmal im 1°C höher mit meinem AC S1.
EDIT:
Ach ja und mein Stromverbrauch steigt auch um ca. 60Watt. (Idle - alles runtergetaktet GPU:500/450/1000 - CPU: Vcore-default 390x6 ca. 103Watt auf OC-Werte mit dann ca. 162Watt schwankend)
Zuletzt bearbeitet:
Klödhilf
Commander
- Mitglied seit
- 24.11.2003
- Beiträge
- 155
- Renomée
- 0
- Aktuelle Projekte
- POEM@HOME, POEM@HOME Superlink@Technion
- Lieblingsprojekt
- POEM@HOME, Folding@Home
- Meine Systeme
- 5x C2Quad Q6600, 1x C2Duo E6600, 1x Athlon XP 1700+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Acer Aspire 1694
- Prozessor
- Core 2 Quad Q6600 @3000
- Mainboard
- EVGA 680i SLI
- Kühlung
- Wakü
- Speicher
- 1x G.Skill Kit 4096MB PC2-6400U CL5-5-5-15
- Grafikprozessor
- EVGA 8800 GT SC
- Display
- 19"
- HDD
- 2x 7200.10 320GB nonRaid
- Optisches Laufwerk
- Samsung SH-W163A SATA
- Gehäuse
- Lian Li PC-71 black
- Netzteil
- Liberty 500W
- Betriebssystem
- Vista x64
- Webbrowser
- Firefox
Hi,
kannst du mir mal bitte sagen wie du deine 8800GT auf einen Shadertakt von 1756 gebracht hast?! Ich bekommen bei meiner nur einen von entweder 1728 oder als nächste Stufe einen von 1782 hin! Wenn du das mit RivaTuner oder so eingestellt hast solltest du deinen Realtakt mal noch mit z.B. Everest 4.50 überprüfen, denn wie gesagt ich bekommen keinen Takt von 1756 bei meiner GraKa zum laufen - bei dieser Einstellung läuft der Takt noch immer mit nur 1728MHz!
Und noch etwas zu deiner Temp. - da lieg ich ja gerade einmal im 1°C höher mit meinem AC S1.
HI usch65,
werds heute abend mal überprüfen, meld mich dann....
Habs im Riva Tuner eingestellt und mit GPU-Z überprüft.
EDIT:
Zur Kühlung, hab noch nen Q6600 g0 @3400 der will auch gekühlt werden und in meinem Dachgeschoß isses auch über 30°C warm.
Aber fürne Lukü, glaub kein schlechter Wert.
@All
wo habt ihr die Rabattcodes für Conrad gefunden? Spiel auch mit dem Gedanken mir noch ne 8800gt 256 MB zu holen! Der kleine Speicher dürfte ja keine Auswirkungen auf Folding@Home haben, oder??
Gruß Klödhilf
Zuletzt bearbeitet:
Hallo indiana_74,
ich fühle mich geehrt, aber kannst du bitte noch den Fehler korregieren.
Statt: Was die Rechengeschindigkeit betrifft ist also der CUDA-Assembler im Treiber, und nicht die der Grafikteil des Treibers verantwortlich.
So: Was die Rechenleistung betrifft ist also der CUDA-Teil im Treiber von besonders großer Bedeutung. Der Grafikteil ist davon unabhängig.
Abschliessend würde ich noch gern hinzufügen (also als letzten Absatz):
CUDA wird uns gewiss noch viele Jahre begleiten. Die Entwicklung dieser Technologie begann schon 2002. Ich prognostiziere eine Revolution im Distributed Computing Bereich bzw. eine Verlagerung der Rechenaufgaben auf die GPU. Es ist nur eine Frage der Zeit. Ausserdem wird demnächst auch FP64 also doppelte Genauigkeit unterstützt. Was wieder den Vorteil seitens des Cell, dieser unterstützt FP64 in der bereits eingesetzten Version im IBM Roadrunner, ausgleicht.
Stream bzw. FireStream heißt das Gegenstück von AMD und bieten ähnliche Funktionen.
Die theoretische Rechenleistung der neuen Grafikkarten von AMD/ATI ist ja der von NVIDIA ebenbürtig, aber der Preis ist deutlich besser. Nur hat NVIDIA den Vorteil das dem Unternehmen das Image der G80-Chipserie vorauseilt. Immerhin ist und war die G80/G92 die erfolgreichste aller Entwicklungen NVIDIA's aller Zeiten.
Entwickelt werden kann im Linux wie im Windows, nur das das Entwickeln selbst nicht so komfortabel ist, wie gewohnt. Man muss viele Daten analysieren, da ein debuggen wie wir es kennen, nicht funktioniert.
Es muss also mehr Tools geben die die Sachen erleichtert, so dass auch die Masse dafür Programme entwickeln kann. Früher gab es vielleicht 100 Mann auf der ganzen Welt die die Grafik-API aufgrund ihrer Programmierfähigkeiten als GPGPU nutzen konnten.
Mit CUDA und Stream ist dies nun deutlich einfacher.
Was das für Supercomputer bedeutet müsste jetzt jedem einleuchten.
Nehmen wir an der Roadrunner rechnet Folding@Home Workunits.
Die gleiche Rechenleistung könnte man auch durch knapp über 1000 Computer, welche mit einer GTX 280 ausgestattet sind, generieren. Wenn wir also unser Team hier konzentrieren können wir sicherlich 1/4 bis 1/2 Teraflop schaffen. Während der Roadrunner 2,3 Megawatt verschlingt, hätte man mit 1000 PC's nur ca 0,4 Megawatt an Strombedarf.
Das einzige was uns noch fehlt ist die doppelte Genauigkeit, dann sieht es sehr sehr schlecht aus für CPU's wie Cell, Itanium und Xeon in Supercomputern.
Leider sieht es so aus, als ob FP64 mit der Geforce 9-Serie nur den Profikarten, wie Tesla und Quadro, zur Verfügung steht. Dem Mainstream will man dieses Feature per Deaktivierung vorenthalten.
Eine G92 faltet 3 mal schneller als eine PS3.
Die tatsächliche Nutzleistung hängt stark von der Anwendung und dem Optimierungsaufwand ab. Da der PS3 ja ca. 200 GFLOPS bescheinigt werden, wird klar warum die schnellste G92 mit 624 GLOPS deutlich überlegen ist. Temperaturtechnisch habe ich nicht das Gefühl, dass mit voller Leistung gefaltet wird.
Aber das ist nicht das einzige Leistungskriterium, der Speicher der zur Verfügung steht, in Ausführungen zw. 512 und 1024 MB, ist schneller als der L1 Cache auf einer aktuellen CPU.
Das Projekt Folding@Home ist wie für die GPU's beider Hersteller zugeschnitten, also startet eure Clients. Und nicht vergessen, das Wichtigste ist der Treiber.
ich fühle mich geehrt, aber kannst du bitte noch den Fehler korregieren.
Statt: Was die Rechengeschindigkeit betrifft ist also der CUDA-Assembler im Treiber, und nicht die der Grafikteil des Treibers verantwortlich.
So: Was die Rechenleistung betrifft ist also der CUDA-Teil im Treiber von besonders großer Bedeutung. Der Grafikteil ist davon unabhängig.
Abschliessend würde ich noch gern hinzufügen (also als letzten Absatz):
CUDA wird uns gewiss noch viele Jahre begleiten. Die Entwicklung dieser Technologie begann schon 2002. Ich prognostiziere eine Revolution im Distributed Computing Bereich bzw. eine Verlagerung der Rechenaufgaben auf die GPU. Es ist nur eine Frage der Zeit. Ausserdem wird demnächst auch FP64 also doppelte Genauigkeit unterstützt. Was wieder den Vorteil seitens des Cell, dieser unterstützt FP64 in der bereits eingesetzten Version im IBM Roadrunner, ausgleicht.
Stream bzw. FireStream heißt das Gegenstück von AMD und bieten ähnliche Funktionen.
Die theoretische Rechenleistung der neuen Grafikkarten von AMD/ATI ist ja der von NVIDIA ebenbürtig, aber der Preis ist deutlich besser. Nur hat NVIDIA den Vorteil das dem Unternehmen das Image der G80-Chipserie vorauseilt. Immerhin ist und war die G80/G92 die erfolgreichste aller Entwicklungen NVIDIA's aller Zeiten.
Entwickelt werden kann im Linux wie im Windows, nur das das Entwickeln selbst nicht so komfortabel ist, wie gewohnt. Man muss viele Daten analysieren, da ein debuggen wie wir es kennen, nicht funktioniert.
Es muss also mehr Tools geben die die Sachen erleichtert, so dass auch die Masse dafür Programme entwickeln kann. Früher gab es vielleicht 100 Mann auf der ganzen Welt die die Grafik-API aufgrund ihrer Programmierfähigkeiten als GPGPU nutzen konnten.
Mit CUDA und Stream ist dies nun deutlich einfacher.
Was das für Supercomputer bedeutet müsste jetzt jedem einleuchten.
Nehmen wir an der Roadrunner rechnet Folding@Home Workunits.
Die gleiche Rechenleistung könnte man auch durch knapp über 1000 Computer, welche mit einer GTX 280 ausgestattet sind, generieren. Wenn wir also unser Team hier konzentrieren können wir sicherlich 1/4 bis 1/2 Teraflop schaffen. Während der Roadrunner 2,3 Megawatt verschlingt, hätte man mit 1000 PC's nur ca 0,4 Megawatt an Strombedarf.
Das einzige was uns noch fehlt ist die doppelte Genauigkeit, dann sieht es sehr sehr schlecht aus für CPU's wie Cell, Itanium und Xeon in Supercomputern.
Leider sieht es so aus, als ob FP64 mit der Geforce 9-Serie nur den Profikarten, wie Tesla und Quadro, zur Verfügung steht. Dem Mainstream will man dieses Feature per Deaktivierung vorenthalten.
Eine G92 faltet 3 mal schneller als eine PS3.
Die tatsächliche Nutzleistung hängt stark von der Anwendung und dem Optimierungsaufwand ab. Da der PS3 ja ca. 200 GFLOPS bescheinigt werden, wird klar warum die schnellste G92 mit 624 GLOPS deutlich überlegen ist. Temperaturtechnisch habe ich nicht das Gefühl, dass mit voller Leistung gefaltet wird.
Aber das ist nicht das einzige Leistungskriterium, der Speicher der zur Verfügung steht, in Ausführungen zw. 512 und 1024 MB, ist schneller als der L1 Cache auf einer aktuellen CPU.
Das Projekt Folding@Home ist wie für die GPU's beider Hersteller zugeschnitten, also startet eure Clients. Und nicht vergessen, das Wichtigste ist der Treiber.
Zuletzt bearbeitet:
indiana_74
Moderator
☆☆☆☆☆☆
★ Themenstarter ★
- Mitglied seit
- 24.02.2006
- Beiträge
- 8.178
- Renomée
- 481
- Standort
- in der Hauptstadt
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Milkyway - SETI - QMC
- Meine Systeme
- V8 XEON
- BOINC-Statistiken
- Prozessor
- AMD Athlon 64 FX-60
- Mainboard
- Gigabyte GA-K8N PRO-SLI
- Kühlung
- WaKü v. Coolermaster
- Speicher
- 2x1024MB Kingston DDR-RAM
- Grafikprozessor
- Sapphire RADEON X600 128MB
- Display
- 19" Fujitsu Siemens TFT
- HDD
- 250GB Maxtor S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Soprano
- Betriebssystem
- Win XP
- Webbrowser
- Firefox 2.0
Habs im Riva Tuner eingestellt und mit GPU-Z überprüft.
Ich hab bei mir immer das Monitoring Tool vom Rivatuner mitlaufen lassen, da kann man sehr schön sehen wann die Frequenz tatsächlich umspringt.
Hab meine GTX280 jetzt auch noch ein bisschen gekitzelt, läuft nun so:
GPU = 602@684MHz
Ram = 1.107@1.296MHz
Shader = 1.296@1.404MHz 8)
Mehr geht leider nicht ohne das bei ATITool Artefakte auftauchen und die Core Frequenz geht anscheinend grundsätzlich nicht höher. Sobald ich noch höher gehe springt er im Monitortool auf 100MHz zurück
Reicht ja aber auch
Hi,
kannst du mir mal bitte sagen wie du deine 8800GT auf einen Shadertakt von 1756 gebracht hast?! Ich bekommen bei meiner nur einen von entweder 1728 oder als nächste Stufe einen von 1782 hin! Wenn du das mit RivaTuner oder so eingestellt hast solltest du deinen Realtakt mal noch mit z.B. Everest 4.50 überprüfen, denn wie gesagt ich bekommen keinen Takt von 1756 bei meiner GraKa zum laufen - bei dieser Einstellung läuft der Takt noch immer mit nur 1728MHz!
Und noch etwas zu deiner Temp. - da lieg ich ja gerade einmal im 1°C höher mit meinem AC S1.
EDIT:
Ach ja und mein Stromverbrauch steigt auch um ca. 60Watt. (Idle - alles runtergetaktet GPU:500/450/1000 - CPU: Vcore-default 390x6 ca. 103Watt auf OC-Werte mit dann ca. 162Watt schwankend)
60 Watt, da vergleichst du aber Idle(Ref.) mit Load(OC)!
Vergleiche mal Idle/Load im Referenz Takt und Idle/Load OC-Takt, und poste das hier.
Durch eine Art C&Q für meinem G92 (nur Taktsenkung) erreiche ich nur maximal 10 Watt Einsparung im Idle.
Zuletzt bearbeitet:
JKuehl
Grand Admiral Special
- Mitglied seit
- 22.06.2003
- Beiträge
- 7.903
- Renomée
- 145
- Standort
- Stockholm, Schweden
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- POEM, SIMAP
- Lieblingsprojekt
- SIMAP, POEM
- Meine Systeme
- Q6600
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen-3700x
- Mainboard
- Asus B350 Prime Plus
- Kühlung
- Fractal Design Celsius 240
- Speicher
- 48 GB Corsair LPX 3000
- Grafikprozessor
- 1080ti
- Display
- 28" Samsung 3840x2160
- SSD
- Samsung Evo 960 500Gb
- Soundkarte
- Creative X-Fi Titanium PCIe
- Netzteil
- Be Quiet Dark Power 650
- Betriebssystem
- Windows 10 64 Bit
Der kleine Speicher dürfte ja keine Auswirkungen auf Folding@Home haben, oder??
Gruß Klödhilf
Nein das Folding benötigt nur rund 40MB Speicher. (Wird wohl mit der Anzahl der Threads/genutzten Streamprozessoren zusammenhängen)
Wäre gut wenn Indy das mal auf dem G100 Chip testet (da der ja mehr Streamprozessoren hat). Auslesen kann man das z.B. mit Rivatuner
usch65
Commodore Special
- Mitglied seit
- 21.10.2006
- Beiträge
- 491
- Renomée
- 22
- Standort
- Frechen
- Prozessor
- Intel C2D E8400 @ 3510MHz
- Mainboard
- Gigabyte GA-P35-DS3 Rev.1 @ F13i
- Kühlung
- Xigmatek HDT-S1283
- Speicher
- 4x 1GB A-Data Vitesta Extreme Edition PC800@975
- Grafikprozessor
- Elitegroup N8800GT-512MX @ Arctic Cooling Accelero S1 inkl. Turbo Module
- Display
- Samsung SyncMaster1100p 21"
- HDD
- Samsung SP2504C & Samsung HD252KJ
- Optisches Laufwerk
- LG Electronics GSA-H66N
- Soundkarte
- OnBoard Realtek HD-Audio Chip
- Gehäuse
- Antec P180 Silber
- Netzteil
- X-Spice Croon BF 850 Watt
- Betriebssystem
- WindowsXP Pro. SP2 & Updates
- Webbrowser
- Firefox 3.0
- Schau Dir das System auf sysprofile.de an
Na GPU-Z scheint immer genau das auszulesen was man über z.B. RivaTuner eingestellt hat - nur läuft die Karte teilweise nicht mit den angezeigten Taktraten.HI usch65,
werds heute abend mal überprüfen, meld mich dann....
Habs im Riva Tuner eingestellt und mit GPU-Z überprüft.
EDIT:
Zur Kühlung, hab noch nen Q6600 g0 @3400 der will auch gekühlt werden und in meinem Dachgeschoß isses auch über 30°C warm.
Aber fürne Lukü, glaub kein schlechter Wert.
Gruß Klödhilf
Aber ich muss mich zu meinem oberen Post etwas korrigieren - genau bei 1756MHz Shadertakt liegt die Grenze wo er bei mir dann schon gleich auf die 1782 springt!
Bei 1755 läuft sie noch immer mit 1728MHz.
Wegen deiner Kühlung: Sicher ist ne WaKü bei höheren Zimmertemps besser - bin mal gespannt wie das dann mal bei mir wird.
Aber ich muss schon sagen, der S1 mit den Turbo-Modulen ist schon echt nicht schlecht.
Stimmt, hab ich jetzt auch einmal mit getestet - ist exakt gleich wie es mir auch Everest anzeigt!8)Ich hab bei mir immer das Monitoring Tool vom Rivatuner mitlaufen lassen, da kann man sehr schön sehen wann die Frequenz tatsächlich umspringt.
...
Ähnliche Themen
- Antworten
- 3
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 3K
- Antworten
- 413
- Aufrufe
- 83K