Offizielles Jahresend-Race SETI@Home

Das war vor 11 Jahren und ich war jung und habe mich genau vier Tage nachdem ich meinen Seti-Account erstellt habe hier registriert. Vielleicht habe ich deswegen beschlossen dort keine Punkte abzuliefern *chatt*

edit:
Mein alter Rechner damals
ID: 4265191
0.00
AuthenticAMD AMD Athlon(tm) 64 X2 Dual Core Processor 6000+ [AMD64 Family 15 Model 67 Stepping 3] (2 Prozessoren)
Microsoft Windows XP Professional x64 Edition, Service Pack 2, (05.02.3790.00)
18 Mar 2008, 23:07:23 UTC

das waren Zeiten *heart*

edit2:
CPU Cache 488.28 KB
Auslagerungsdatei 3.87 GB
gesamter Festplattenspeicher 48.83 GB
freier Festplattenspeicher 15.18 GB
mittlere Uploadgeschwindigkeit 2.9 KB/sek
mittlere Downloadgeschwindigkeit 26.02 KB/sek
mittlere Taskdauer 23.9 Tage

*rofl*
 
Zuletzt bearbeitet:
Team01.12.1902.12.1903.12.1904.12.1905.12.1906.12.19
Intel Corp825.382.499825.474.203825.584.570825.685.886825.773.705825.885.833
Planet 3DNow!738.405.289739.558.752740.471.384741.686.548742.716.329744.265.249
Differenz86.977.21085.915.45185.113.18683.999.33883.057.37681.620.584
Position Intel515151515151
Position P3D565656555555
Differenz555444
Tagesoutput Intel70.84891.704110.367101.31687.819112.128
Tagesoutput P3D881.9341.153.463912.6321.215.1641.029.7811.548.920
Tage zum Überholen10781106758857

Langsam nehmen wir was Fahrt auf.
 
Aloha,

werfe meinen gedrosselten 2700X und meine gedrosselte Vega 56 mit in den Ring.
Auf der CPU laufen jetzt 15 Seti Tasks und einer bleibt frei die Vega zu unterstützen und um am System noch Lol spielen zu können.
Gibt es sonst noch Tips zum optimieren? Also außer so Dinge wie dem Team beizutreten? :P

Mfg
 
Du könntest probieren, 2 WUs parallel auf der GPU laufen zu lassen.
Aber dann müssten vielleicht (je nach CPU-Last) auch 2 CPU-Threads frei bleiben und die GPU wird sicherlich etwas mehr Strom brauchen, weil sie seltener während der Berechnung verschnaufen kann.

Dazu eine Datei app_config.xml im Data-Ordner, (meistens C:\ProgramData\BOINC\projects\setiathome.berkeley.edu\ ) erstellen und füllen mit:

<app_config>
<app>
<name>setiathome_v8</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>1</cpu_usage>
</gpu_versions>
</app>
<app>
<name>astropulse_v7</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>1</cpu_usage>
</gpu_versions>
</app>

</app_config>

Für 3 WUs parallel wäre es <gpu_usage>0.33</gpu_usage> usw.

Zum Optimieren könntest Du unter Windows noch Lunatics installieren.
http://mikesworld.eu/download.html
 
Ich hoffe das ich nächste Woche den 2nd DP Cruncher fertig bekomme denn die neue VII ist endlich eingetroffen und dann steht erstmal ein kleiner Probelauf zum Einfahren an. ;D
 
https://setiathome.berkeley.edu/forum_thread.php?id=84933

Wer Linux, Nvidia (min. Pascal!) und min. 4GB VRAM hat, kann diese neue CUDA 10.2 app mal ausprobieren, braucht aber damit leider einen Treiber > 440.
Damit sollen sich die Loadzeiten der SETI App verringern, es müssen 2 WUs parallel laufen.
Probiert habe ich es nicht, meine 1060 3G ist zu 1.6GB belegt mit nur einem SETI MB.
 
Zuletzt bearbeitet:
Würde das ja testen, aber wie bekomme ich die abhängigen Pakete in einem Rutsch mit installiert? Oder etwa alles einzeln installieren?

Code:
fritzb@FritzUSB:~$ sudo apt install nvidia-driver-440
Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut.       
Statusinformationen werden eingelesen.... Fertig
Einige Pakete konnten nicht installiert werden. Das kann bedeuten, dass
Sie eine unmögliche Situation angefordert haben oder, wenn Sie die
Unstable-Distribution verwenden, dass einige erforderliche Pakete noch
nicht erstellt wurden oder Incoming noch nicht verlassen haben.
[B]Die folgenden Informationen helfen Ihnen vielleicht, die Situation zu lösen:[/B] (Mir Linux-DAU nicht *rofl*)

Die folgenden Pakete haben unerfüllte Abhängigkeiten:
 nvidia-driver-440 : Hängt ab von: libnvidia-gl-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: nvidia-dkms-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: nvidia-kernel-source-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: libnvidia-compute-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: nvidia-compute-utils-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: libnvidia-decode-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: libnvidia-encode-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: nvidia-utils-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: xserver-xorg-video-nvidia-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: libnvidia-cfg1-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: libnvidia-ifr1-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
                     Hängt ab von: libnvidia-fbc1-440 (= 440.36-0ubuntu0~0.18.04.1) soll aber nicht installiert werden
E: Probleme können nicht korrigiert werden, Sie haben zurückgehaltene defekte Pakete.
 
Du könntest probieren, 2 WUs parallel auf der GPU laufen zu lassen.
Aber dann müssten vielleicht (je nach CPU-Last) auch 2 CPU-Threads frei bleiben und die GPU wird sicherlich etwas mehr Strom brauchen, weil sie seltener während der Berechnung verschnaufen kann.

Dazu eine Datei app_config.xml im Data-Ordner, (meistens C:\ProgramData\BOINC\projects\setiathome.berkeley.edu\ ) erstellen und füllen mit:

<app_config>
<app>
<name>setiathome_v8</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>1</cpu_usage>
</gpu_versions>
</app>
<app>
<name>astropulse_v7</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>1</cpu_usage>
</gpu_versions>
</app>

</app_config>

Für 3 WUs parallel wäre es <gpu_usage>0.33</gpu_usage> usw.

Zum Optimieren könntest Du unter Windows noch Lunatics installieren.
http://mikesworld.eu/download.html

Hallo!

Habe jetzt das Lunatics Paket installiert und mir zusätzlich die .xml Datei erstellt. Leider klappt das mit den zwei GPU WUs nicht gleichtzeitig. Durch das Lunatics Rechnet die Vega leider nicht die in der XML angegebene setiathome_v8 oder astropulse_v7 sondern WUs mit guppi im Namen. Kann man die beiden Optimierungen kombinieren oder das Lunatics deinstallieren?

Mfg
 
Wer Linux, Nvidia und min. 4GB VRAM hat, kann diese neue CUDA 10.2 app mal ausprobieren, braucht aber damit leider einen Treiber > 440.

Die Meldungen im Boinc-Manager sehen so aus:

Mo 09 Dez 2019 17:40:21 CET | | CUDA: NVIDIA GPU 0: GeForce GTX 980 Ti (driver version 440.36, CUDA version 10.2, compute capability 5.2, 4096MB)
Mo 09 Dez 2019 17:40:21 CET | | CUDA: NVIDIA GPU 1: GeForce GTX 970 (driver version 440.36, CUDA version 10.2, compute capability 5.2, 4043MB)
Mo 09 Dez 2019 17:40:21 CET | | CUDA: NVIDIA GPU 2: GeForce GT 1030 (driver version 440.36, CUDA version 10.2, compute capability 6.1, 2001MB)
Mo 09 Dez 2019 17:40:21 CET | | OpenCL: NVIDIA GPU 0: GeForce GTX 980 Ti (driver version 440.36, device version OpenCL 1.2 CUDA, 6084MB, 4003MB available)
Mo 09 Dez 2019 17:40:21 CET | | OpenCL: NVIDIA GPU 1: GeForce GTX 970 (driver version 440.36, device version OpenCL 1.2 CUDA, 4043MB, 3975MB available)
Mo 09 Dez 2019 17:40:21 CET | | OpenCL: NVIDIA GPU 2: GeForce GT 1030 (driver version 440.36, device version OpenCL 1.2 CUDA, 2001MB, 1962MB available)

Mo 09 Dez 2019 17:40:21 CET | SETI@home | Found app_info.xml; using anonymous platform
Mo 09 Dez 2019 17:40:21 CET | SETI@home | Found app_config.xml

Bevor ich in der cc_config.xml den Befehlsstring <use_all_gpus>1</use_all_gpus> eingefügt hatte, hatte Seti nur auf der 1030 gerechnet. Fehlerfrei.
Danach hat er zwar alle 3 Karten richtig erkannt, aber nur Berechnungsfehler produziert.
Collaz, GPU-GRID und Einstein wird einwandfrei gerechnet.

Wo liegt der Seti-Fehler?

EDIT:
Jemand anderes hatte vor längerer Zeit auch sein Problem beschrieben, das die anderen Projekte fehlerfrei liefen, nur Seti hat Fehler erzeugt.
Leider finde ich es in den ganzen Threads nicht mehr wieder. Weiß aber auch nicht mehr, ob eine Lösung gefunden wurde.
 
Zuletzt bearbeitet:
Läuft! *massa*

Dann kann ich mich ja jetzt ums System-5 kümmern. Das spackt auch rum. Da ist aber eine 1080 Ti und eine 1080 drinnen.

Bin dann mal ebend in der Calinstr.. ;)
 
Zuletzt bearbeitet:
Jo, warum nicht, darf der TR auch beim weihnachtlich elektrischen Heizen des Zimmers mithelfen ;)
 
Hallo!

Habe jetzt das Lunatics Paket installiert und mir zusätzlich die .xml Datei erstellt. Leider klappt das mit den zwei GPU WUs nicht gleichtzeitig. Durch das Lunatics Rechnet die Vega leider nicht die in der XML angegebene setiathome_v8 oder astropulse_v7 sondern WUs mit guppi im Namen. Kann man die beiden Optimierungen kombinieren oder das Lunatics deinstallieren?

Mfg
Die Anwendung heißt immer setiathome_v8 (oder Astroulse) - egal was die WUs für exotische Namen haben. Das sind 2 verschiedene Dinge. Siehe Spalte "Anwendung" im Boinc-Manager.
Zur Fehlersuche wären Fehlermeldungen notwendig. Also was genau klappt nicht und was steht in der Meldungsliste?

--- Update ---

Würde das ja testen, aber wie bekomme ich die abhängigen Pakete in einem Rutsch mit installiert? Oder etwa alles einzeln installieren?
Da ich heute keine Lust auf Kommandozeile hatte, hab ich es mittels Mausklick probiert und das funktionierte problemlos.
bildschirmfotovon2019j6koz.png


Wobei ich es etwas merkwürdig finde, dass CUDA nur 4GB erkennt und OpenCL 8GB...
Mo 09 Dez 2019 21:10:27 CET | | CUDA: NVIDIA GPU 0: GeForce GTX 1070 Ti (driver version 440.36, CUDA version 10.2, compute capability 6.1, 4096MB, 3968MB available, 8186 GFLOPS peak)
Mo 09 Dez 2019 21:10:27 CET | | OpenCL: NVIDIA GPU 0: GeForce GTX 1070 Ti (driver version 440.36, device version OpenCL 1.2 CUDA, 8118MB, 3968MB available, 8186 GFLOPS peak)

Und ich staune, dass der Nvidia-Treiber angeblich quelloffen ist. Ist in der Hölle jetzt Streusalz nötig?

--- Update ---

https://setiathome.berkeley.edu/forum_thread.php?id=84933

Wer Linux, Nvidia (min. Pascal!) und min. 4GB VRAM hat, kann diese neue CUDA 10.2 app mal ausprobieren, braucht aber damit leider einen Treiber > 440.
Damit sollen sich die Loadzeiten der SETI App verringern, es müssen 2 WUs parallel laufen.
Probiert habe ich es nicht, meine 1060 3G ist zu 1.6GB belegt mit nur einem SETI MB.
Dann lad ich das mal zum Testen herunter.
Bei der 1070ti könnten die 5 Sekunden Ladezeit durchaus bemerkbar sein bei Rechenzeiten von ca. 2 Minuten. Bei der 1030, die 30 Minuten an einer WU knuspert, kann ich mir das schenken - zumal die eh nur 2GB hat.

Aktuell habe ich eine CUDA100 WU mit bis zu 2,8GB VRAM-Belegung...
 
Zuletzt bearbeitet:
Die fehlerhafte vRAM Anzeige bei CUDA ist ein bekanntes Problem, das tut aber nicht weiter weh.
https://setiathome.berkeley.edu/top_hosts.php
Bei einigen Rechnern wird es auch für CUDA korrekt dargestellt, wieso weshalb warum weiß ich nicht.

Code:
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 418.56       Driver Version: 418.56       CUDA Version: 10.1     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  GeForce GTX 106...  On   | 00000000:0A:00.0 Off |                  N/A |
| 44%   73C    P2    49W /  70W |   2073MiB /  3016MiB |     89%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0      2506      G   /usr/lib/xorg/Xorg                           402MiB |
|    0     20511      G   ...quest-channel-token=5519322449324674473   403MiB |
|    0     22881      C   ...41p_V0.98b1_x86_64-pc-linux-gnu_cuda101  1255MiB |
+-----------------------------------------------------------------------------+
Wenn der xserver und der andere Prozess (chromium unter meinem User) nicht wären, müsste es auch mit 3GB reichen.
Sonderbare Sache, mein Monitor hängt eigentlich an der Radeon, da müsste doch der XServer laufen... *kopfkratz
 
Zuletzt bearbeitet:
Also bei mir läuft es jetzt. :)
2 WUs werden losgerechnet, dann stoppt die 2. nach ca. 5-6s und wird direkt weitergerechnet, wenn die erste fertig ist.
Die Zeit läuft aber bei beiden WUs. Das wird dann bei der Statistik etwas kniffelig.
Keine Ahnung, ob CUDA102 auch so schneller ist oder ich gerade besonders kurze WUs erwischt habe - aber die auf 90W gedrosselte 1070ti ist nicht länger als 2 Minuten mit je 2 WUs beschäftigt, also unterm Strich 1m pro WU.

Auf die Schnelle geschaut ist der RAM nie über 3GB belegt worden. Es wechselt zwischen 1,6 und 2,9GB. Also evtl. könnte es auch mit ner 3GB-Karte klappen.
 
Im Moment scheint es irgendwie mehr WUs als üblich zu geben.
Ich habe gerade wegen der heutigen Wartung geschaut, ob genug Puffer da ist - ja, mit ca. 500 WUs pro PC sieht es gut aus. :)
 
Da ich heute keine Lust auf Kommandozeile hatte, hab ich es mittels Mausklick probiert und das funktionierte problemlos.
bildschirmfotovon2019j6koz.png

Habe Mint 19.1
Ist leider alles ausgegraut :(
Aber da ich eine 970 habe, würde cuda10.2 wohl eh nicht funktionieren
nv.png

--- Update ---

In der Aktualisierungsverwaltung werden mir nvidia-graphics-driver-430, nvidia-graphics-driver-390 und nvidia-settings (für 418.56) angeboten. Ob ich die wohl zuerst installieren muss?
 
Wie hattest du denn zuvor den Treiber installiert, aus dem Paket von der Nvidiaseite?
Das "Weiterhin einen manuell installierten Treiber verwenden" sieht ja so ein wenig danach aus.
 
Wie hattest du denn zuvor den Treiber installiert, aus dem Paket von der Nvidiaseite?
Das "Weiterhin einen manuell installierten Treiber verwenden" sieht ja so ein wenig danach aus.

Über die Konsole nach dieser Anleitung: https://www.planet3dnow.de/vbulleti...!-Event-2019?p=5247409&viewfull=1#post5247409

Erst 415 und dann 418 auf die gleiche Weise. Hatte funktioniert.

Korrekt. Also bleib einfach beim alten Treiber und Cuda10.1 oder 10.0.

Werde ich machen, läuft ja ganz gut :)
 
Ich kann mich dunkel erinnern, dass bei mir auch mal irgendwann die neue Version einfach nicht drauf wollte.
Erst als ich alles, was irgendwie nach Nvidia aussah, von der Platte gepurged und dann mittels update/upgrade den Paketmanager auf den neuesten Stand gebracht hatte, konnte der neue Treiber installiert werden. Zwischendurch gabs mit der Nvidia-Karte dann auch mal kein Bild beim Booten, also musste ich sie immer wieder ausbauen, wegen diverser Tests und die Grafik vom Athlon-5350 nutzen.
Darum bin ich normalerweise vorsichtig, wenn es um Grafiktreiberudates geht. In diesem Fall hab ichs halt gemacht, weil es nur ein Mausklick war und ich mir dachte, der Paketmanager wird hoffentlich wissen, was es dafür alles zu tun gibt...

Mal sehen, wie lange die Wartungspause diesmal dauert.
 
Zurück
Oben Unten