SETI@Home Wow Event 2017

Ja, O.K., ist mir (selbst mir) im Prinzip bekannt, aber hätte ja auch da ein älteres Datenpaket sein können.
Aber wenn's einmal geht und einmal nicht *noahnung*

Ich habe eine ähnliche Absonderlichkeit bei zwei fast baugleichen PCs (i7-4790T und i7-4790S) festgestellt:
Auf dem einen kriege ich die GTX 750 + die Intel HD4600 zum Laufen, auf dem anderen nur die GTX 750Ti.
cc_config, app_info, Intel-SDK für openCL drauf, alles gleich.
Eigenlich müsste es gehen, tut es aber doch nicht.
 
Auf dem ersten PC habe ich keine Lunatics installiert, sondern eine Spezial-App für die 750Ti für CUDA80/(60).
Sieht auf den ersten Blick nicht ganz einfach aus, ist es aber doch und es läuft offensichtlich.
 
Ahja, sehr experimentierfreudig... Dann mal viel Erfolg beim Fehlerjagen. :D
 
Experimentierfreudig ja, aber die Lunatics für Linux habe ich vorläufig aufgegeben.
Ich komme damit nicht klar. Ich lasse per Standard rechnen.
 
Ich sehe bei SG-Stats, dass wir gerade mal 10 Leuts sind für P3D?
Na, hoffentlich kommen da noch welche dazu. Wie sollen wir paar die Aliens einfangen?
 
Hat Jemand einen Todesstern oder ein Wurmloch parat? Damit könnte es vielleicht was werden.
 
Todesstern ist leider nicht mehr ... ich hätte noch zwei Supersternzerstörer der Eclipse-Klasse hier... Eventuell auch noch einen Interdiktor dazu.

Ob das ausreicht? ???
 
Ich lasse meine Kiste erstmal die Rechenzeiten etwas einrechnen damit der Puffer wieder passt.
Die Verschiebung vom Ripper passt mir leider nicht wirklich, zum alten Termin hätte der Umbau wunderbar in meine Urlaubszeit gepasst, jetzt wird das doch etwas sehr knapp.
Na mal schauen, vielleicht konfiguriere ich den Ripper im Tischaufbau vor und baue das System an einem anderen Tag um.
 
Seti auf CPU? :o

*noahnung* Aber warum eigentlich nicht. Vermutlich schaffen Ryzen & Co. mehr als meine GTX 750Ti.
 
Versuch mal ohne Mainboard die Grafikkarten rechnen zu lassen. :D
Zudem habe ich die Hoffnung dann alle 4 Karten nutzen zu können.
 
Irgendwie sind die SG-Stats etwas durcheinander. Eben war ich noch deutlich hinter Kalesche und jetzt plötzlich auf P88. Das geht gar nicht. Blödsinn.
Es scheinen auch alle Credits der Vortage zu fehlen. Naja. Ist ja noch Zeit, um dass zu fixen.

--- Update ---

@sompe: Ja, das Rechenmonsterchen hatte ich verdrängt... Viel Erfolg damit.
 
So wie es aussieht wurden heute die States der Testphase zurück gesetzt.
 
Olle Kalesche schrieb:
..Nach dem geschätzten 5. Anlauf habe ich die CUDA80-APP zum Laufen bekommen.
Ob da jetzt etwas Gescheites oder Müll herauskommt werde ich erst sehen, wenn der Herr Validator seinen Senf
dazugegeben hat - also mal abwarten und Schnaps äh TEE trinken.

--- Update ---

WOW, 2 CUDA80-WUs wurden validiert ! SIEG !
..
Leider ist nur noch eine Cuda60 Aufgabe in Deiner Liste. Anscheinend haben sich Deine Berechnungszeiten mit der Petri Anwendung (Linux) halbiert !?




olsen_gg schrieb:
Ich habe auch haufenweise Fehlermeldungen bezüglich falscher Apps - ....................
Nachricht vom Server: Unknown app name setiathome_v7 in app_info.xml
Das ist aber kein wirkliches Problem. Deine Lunaticsversion ist aus der Zeit, als noch beide Anwendungen parallel liefen (Seti@home v7 und Seti@home v8). Seti@home v7 wurde inzwischen entfernt. Meldung einfach ignorieren oder in Deiner App_info diese Einträge löschen !




olsen_gg schrieb:
Ich habe eine ähnliche Absonderlichkeit bei zwei fast baugleichen PCs (i7-4790T und i7-4790S) festgestellt:
Auf dem einen kriege ich die GTX 750 + die Intel HD4600 zum Laufen, auf dem anderen nur die GTX 750Ti.
cc_config, app_info, Intel-SDK für openCL drauf, alles gleich.
Eigenlich müsste es gehen, tut es aber doch nicht.
Was ist der Unterschied zwischen T und S ?
Gibt es einen Schalter für die Nutzung im Bios ?
Zeigt der Boincstartlog im 2. System die HD4600 an ?





Seti auf CPU? :o

*noahnung* Aber warum eigentlich nicht. Vermutlich schaffen Ryzen & Co. mehr als meine GTX 750Ti.

Siehe Mike, seine 16 Ryzen Cores mit AVX Aufgaben (win7) bestückt + Tonga hauen so einiges raus:
https://setiathome.berkeley.edu/results.php?hostid=5735690&offset=0&show_names=0&state=4&appid=
aktueller Punktedurchschnitt 29,438.61
 
Zuletzt bearbeitet:
@Pollux

Zum Test hatte ich nur so viele CUDA80 rechnen lassen, bis die CPU-WUs fertig waren.
Zwischenzeitlich waren 2 CUDA80 für gut befunden, also habe ich mir ein Regal mit WUs gefüllt, die am/nach dem
15.8. erst entlassen werden.
Das Paket mit den CUDA80 ist fertig, die CPU-WUs noch nicht alle.

Ob die CUDA80 schneller berechnet wurden als die CUDA60 von vorher habe ich nicht überprüft.
 
Zuletzt bearbeitet:
@Pollux:

Der i7-4790S zeigt im Boinc-Startlog die iGPU scheinbar nicht mit an. Der letzte Eintrag da unten ist m.E. die CPU selbst (?):

27.07.2017 10:20:13 | | Starting BOINC client version 7.6.33 for windows_x86_64
27.07.2017 10:20:13 | | log flags: file_xfer, sched_ops, task
27.07.2017 10:20:13 | | Libraries: libcurl/7.47.1 OpenSSL/1.0.2g zlib/1.2.8
27.07.2017 10:20:13 | | Data directory: C:\ProgramData\BOINC
27.07.2017 10:20:13 | | Running under account Gunnar2
27.07.2017 10:20:15 | | CUDA: NVIDIA GPU 0: GeForce GTX 750 (driver version 376.53, CUDA version 8.0, compute capability 5.0, 2048MB, 1694MB available, 1164 GFLOPS peak)
27.07.2017 10:20:15 | | OpenCL: NVIDIA GPU 0: GeForce GTX 750 (driver version 376.53, device version OpenCL 1.2 CUDA, 2048MB, 1694MB available, 1164 GFLOPS peak)

27.07.2017 10:20:15 | | OpenCL CPU: Intel(R) Core(TM) i7-4790S CPU @ 3.20GHz (OpenCL driver vendor: Intel(R) Corporation, driver version 6.3.0.1904, device version OpenCL 2.1 (Build 18 ))


Die beiden i7 unterscheiden sich nur in der Basis- / Turbofrequenz und in der TDP. Sie haben beide die HD4600 dabei:

i7-4790S: 3.2/4.0 GHz 65W
i7-4790T: 2.7/3.9 GHz 45W

--- Update ---

Zum Vergleich den Startlog auf dem i7-4790T:
27.07.2017 10:29:07 | | Starting BOINC client version 7.6.33 for windows_x86_64
27.07.2017 10:29:07 | | log flags: file_xfer, sched_ops, task
27.07.2017 10:29:07 | | Libraries: libcurl/7.47.1 OpenSSL/1.0.2g zlib/1.2.8
27.07.2017 10:29:07 | | Data directory: C:\ProgramData\BOINC
27.07.2017 10:29:07 | | Running under account Gunnar2
27.07.2017 10:29:09 | | CUDA: NVIDIA GPU 0: GeForce GTX 750 Ti (driver version 376.53, CUDA version 8.0, compute capability 5.0, 2048MB, 1689MB available, 1421 GFLOPS peak)
27.07.2017 10:29:09 | | OpenCL: NVIDIA GPU 0: GeForce GTX 750 Ti (driver version 376.53, device version OpenCL 1.2 CUDA, 2048MB, 1689MB available, 1421 GFLOPS peak)
27.07.2017 10:29:09 | | OpenCL: Intel GPU 0: Intel(R) HD Graphics 4600 (driver version 20.19.15.4531, device version OpenCL 1.2, 1630MB, 1630MB available, 192 GFLOPS peak)
27.07.2017 10:29:09 | | OpenCL CPU: Intel(R) Core(TM) i7-4790T CPU @ 2.70GHz (OpenCL driver vendor: Intel(R) Corporation, driver version 5.2.0.10094, device version OpenCL 1.2 (Build 10094))
27.07.2017 10:29:09 | | OpenCL CPU: Intel(R) Core(TM) i7-4790T CPU @ 2.70GHz (OpenCL driver vendor: Intel(R) Corporation, driver version 6.3.0.1904, device version OpenCL 2.1 (Build 18 ))


--- Update ---

Schalter im Bios ist noch so eine Idee, das kann ich aber von hier nicht schauen.
Vielleicht muss ich nur den Bootvorgang umstellen auf iGPU als primäre GPU. Wird heute abend probiert und gemeldet. :D
Habe lieber nochmal in den Gerätemanager geschaut, da wird korrekt angezeigt: Intel HD4600 + NVidia GTX 750Ti.

--- Update ---

Sorry. Ich bin aber auch ein Blindfisch :-/ - falschen PC erwischt... nee, nee, nee.

Im 4790S wird die HD4600 nicht im Gerätemanager angezeigt. Da haben wir offenbar die Ursache. Also heute Abend ran GTX raus und schauen, was dann passiert. :D
Aber danke für den Gedankenanstoß.
 
Zuletzt bearbeitet:
Ob die CUDA80 schneller berechnet wurden als die CUDA60 von vorher habe ich nicht überprüft.
Die Laufzeiten sind doch eh sehr groflächig verteilt.
Da müsste man schon nach den credits/stunde o.ä. schauen.

Mal schauen, ob ich mich am Sonntag mal damit befassen kann, dem Ryzen AVX und der GTX970 CUDA schmackhaft zu machen, sofern es unter Linux überhaupt was bringt.
 
So, nun geht auch Intel+NVidia auf dem i7-4790S. Aber das war weder logisch noch einfach.

1. GTX raus und iGPU zwingen zum Laufen (-->Standard-GPU für Win), Treiber suchen und installieren, GTX wieder rein und .... wieder nur GTX da. :-/
2. BIOS-Einstellungen... iGPU als primary einstellen, Neustart
3. Im Gerätemanager sind endlich beide GPUs da. Im BM auch.
4. trotzdem zieht der BM keine Wuzen für Intel.
5. Projekt zurückgesetzt, wirkungslos.
6. Projekt entfernt, neu hinzugefügt, --> erstmalig beide GPUs am arbeiten.
7. App_info aus i7-4790T rüberkopieren, Neustart, Yaehhhhhhhhh

--- Update ---

Merke: immer erst iGPU zum Arbeiten bringen, dann die weiteren GPU hinzufügen...
 
Meine Materiallieferungen haben alle ein MHD von >17.08.2017, also habe ich die Regale gefüllt und die Kellertüren verrammelt.
Mal sehen, ob v.a. die Intel iGPUs das bis dahin schaffen. Die GTX werden kein Problem damit haben.
 
Hi Jungs,

Macht mal Werbung, noch seit Ihr bisschen schwach aufgestellt ;)

LG

Dummbatz aka Handicap

Ich dachte es geht immer nur um Sternzeichen. Und da bin ich vermutlich dieses Jahr gut aufgestellt.
 
Nä, du bist definitiv Mitglied in einem Team, hier P3D und in einer Gruppe. In dem Fall Löwe(n).

Ich habe mich denn mal lieber bei den Skorpionen eingetragen. ;D (P3D ist automatisch drin).
 
bin auch angemeldet :)
 
Ist mir doch irgendwie das eine Kellertor "aufgegangen". Musste heute neu bestellen und alles wieder verriegeln. :-/
 
Oha !

Um bei Seti mehr als ein Mal die Regale füllen zu können (für WOW), habe ich diverse Linux-Systeme sogar mit
unterschiedlichem Systemstand pro PC aufgesetzt (Ver. 16.? + 17.?), aber Seti scheint ähnliche Systeme als
einen einzigen PC anzusehen - somit sind die älteren WUs eines Systems mit dem eines anderen Systems
zusammengefaßt und einfach auf "Fehler" gesetzt worden. Das ist FIES !

HE, SETI ! , wenn ich für Seti rechnen soll, dann laß mich machen und fahr mir nicht in die Arbeit !!!
Ansonsten laß ich's eben und rechne für Schneewittchen und die sieben Zwerge !!!
FRUST !!!
 
Zurück
Oben Unten