Einstein@home - allgemeiner Austausch (News, Forenfunde, HowTo, etc.)

Nutze doch die Profile um die Rechner unterschiedlich mit WUs zu versorgen und für den zweiten Rechner die "Gravitational Wave" WUs zu sperren. Mit den Gamma WUs hat der sicherlich auch gut zu tuen. ;)
 
Die Radeon RX560 ist ja gar nicht mal so schlecht, ich habe gedacht das die nicht so viel bringen könnte, aber ist ja doch noch gut zu gebrauchen!:D
Dabei habe ich, wie ich oben lese, noch gar nicht passend optimiert. Ich habe aber mal die GPU Werte von 1 auf 0.5 gestellt.

@sompe, vielen Dank für Dein Ideentausch.
 
In Sachen GPU Auslastung waren die "Gravitational Wave" GPU WUs ohnehin eher mau, für Multi WU sollte bei denen also mehr als genug Spielraum sein.
 
Ich glaube für Multi WU ist der Grafikkarten Speicher mit 2 GB zu klein, in Boinc gibt es dazu eine Meldung, wenn ich den Wert auf 0.5 setze, also ist es nach wie vor ratsam die Gamma WU zu nehmen? Bei dem PC mit 32 GB probiere ich ebenfalls die Gamma aus.
 
Das ist natürlich schaden.
Von der Credit Ausbeute und der GPU Auslastung her waren die Gammas meiner Erinnerung nach am effektivsten.
 
Also die GPU braucht für Gravitational Wave rund 1 Stunde. Ein CPU Thread 15 Stunden. Bei dem Computer mit 32 GB RAM sind 20 Stunden verstrichen und schätzt noch auf 10 Stunden, bis eine fertig ist. Wobei die Schätzungen von Boinc utopisch erscheinen, also der 20 Stunden bereits verbracht hat,. Soll nun die Hälfte geschafft haben.
 
Ich habe Linux neu aufgesetzt und diesmal Ubuntu und die Brandneuen Linux Treiber von AMD genommen, die vor 2 Tagen erschienen sind.
Hab die CPU in Einstein mal raus gelassen, die rechnet nun in FAH und die Grafikkarte in Einstein. Dort konnte ich erstaunlicherweise doch noch 2 WUs gleichzeitig rechnen lassen! :D Hab weiterhin die Gravitational Wave genommen, die scheinen diesmal als vorher, wo zusätzlich die CPU zu sehr mit dem RAM belegt war. Hab in top gesehen das 4 BOINC Instanzen für die GPU aufgemacht wurde, womit die GPU dann sicherlich gut versorgt werden möchte.
In Fah laufen deswegen nur 16 Treads und der rest ist dann erstmal für die GPU, gucken wie gut die damit läuft.
Diesmal öffnet er auch 4 Threads auf einer GPU. Das belegt allerdings auch schon 11 GB RAM, ich denke der war letztens einfach nur zu voll.
 
Zuletzt bearbeitet:
Obwohl ich die CPU ausgeklammert habe, holte er sich diese Nacht CPU Anwendungen und damit kann die Grafiikkarte keine WUs gleichzeitig ausführen.
Ich habe auch gemerkt das die RX560 schon mit 1 WU gut ausgelastet ist und 2-4 gar nichts bringen. Mit einer ist er in 25 Min. fertig, also schneller als beim letzten mal, wo die 1 Std. gebraucht hat, warum auch immer. Wenn ich nicht zu viele CPU Threads gleichzeitig laufen lasse, so sind die auch eher fertig.
ich hatte ja gar nicht damit gerechnet das er überhaupt für die CPU WUs holt, aber hatte von Anfang an die Berechnungseinstellung auf 20% gehabt, so das er lediglich 6 WUs gleichzeitig laufen gelassen hat. Anstatt 15 Stunden, ist er schon in 4-5 Stunden fertig. :D
Ich denke das die RAM Bandbreite stark limitiert.
 
Zuletzt bearbeitet:
Gerade im Zusammenspiel mit SMT muss man mit einem CPU/GPU WU Mix aufpassen.
Die GPU WUs benötigen schließlich auch ein gewisses Maß an CPU Leistung und wenn der zweite Thread von einer CPU Wu ausgelastet wird kann es vorkommen das für die GPU nicht mehr viel übrig bleibt. Genau deshalb ziehe ich es vor SMT bei einem solchen Mix abzuschalten und jeder GPU WU einen Kern zu reservieren. Bleibt dann zu vile CPU Leistung durch die GPU WU unangetestet kann man immernoch sehen ob es sich lohnt bei mehreren GPU WUs den gleichen Kern zu nutzen.
 
Zuletzt bearbeitet:
Obwohl ich die CPU ausgeklammert habe, holte er sich diese Nacht CPU Anwendungen und damit kann die Grafiikkarte keine WUs gleichzeitig ausführen.
Ich habe auch gemerkt das die RX560 schon mit 1 WU gut ausgelastet ist und 2-4 gar nichts bringen. Mit einer ist er in 25 Min. fertig, also schneller als beim letzten mal, wo die 1 Std. gebraucht hat, warum auch immer. Wenn ich nicht zu viele CPU Threads gleichzeitig laufen lasse, so sind die auch eher fertig.
ich hatte ja gar nicht damit gerechnet das er überhaupt für die CPU WUs holt, aber hatte von Anfang an die Berechnungseinstellung auf 20% gehabt, so das er lediglich 6 WUs gleichzeitig laufen gelassen hat. Anstatt 15 Stunden, ist er schon in 4-5 Stunden fertig. :D
Ich denke das die RAM Bandbreite stark limitiert.
Idealerweise bleibt ein kompletter CPU-Kern, also 2 Threads für die GPU-WU frei.

Wo genau hast Du denn die 20% eingestellt und warum?

Es ist eigentlich kein Problem, CPU und GPU gleichzeitig rechnen zu lassen - wobei ich CPU meiner Meinung nach wenig lohnt.
 
Da habe ich doch meine RX570 mal bei Einstein ausprobiert, aber das Ergebnis war echt enttäuschend, mal gerade 180kCr/d.
Nunja, allerdings sind da auch noch 110 im Pending... ;D
 
Da habe ich doch meine RX570 mal bei Einstein ausprobiert, aber das Ergebnis war echt enttäuschend, mal gerade 180kCr/d.
Nunja, allerdings sind da auch noch 110 im Pending... ;D
Wie lange braucht da eine WU?
Als ich das letzte Mal meine RX460 hab rechnen lassen, kam die auf 1485s, also gut 200kCr./d. Ist allerdings schon über 1 Jahr her, vielleicht ist die Ausbeute inzwischen gesunken.
Da die Laufzeiten sehr konstant sind, kann man bei Einstein ja eigentlich von wenigen oder gar einer einzelnen WU eine Hochrechnung für den ganzen Tag anstellen.
 
630...640s. Hochrechnung dann ca. 475k/d. Ich finde das nicht übel, zumindest deutlich besser als erwartet. :D
 
Jo, da gibt es nix zu meckern. :)
Von Nvidia-Seite würde das bereits eine 1070 erfordern und erst die VEGA schaffen deutlich mehr.
 
Das entspricht ganz gut den Benchmarkwerten: G3D Mark RX460: 3857 RX570: 6967

--- Update ---

Ja, dann bin ich ja doch nicht ganz mittellos, wenn GPU ansteht. *noahnung*
 
Ich muss sogar auf einer alten 480 noch zocken, sehe die GPU Preise zur Zeit einfach nicht ein.
 
Ich daddel gerade auf meiner alten R9 Nano, welche die zerschossene VII überbrücken musste.
Das reicht mir für WoW (Classic) in UHD. ^^
 
Läuft bei jemanden Einstein unter Fedora 31 und Ati?
Bei mir bricht die Berechnung sofort ab mit einem Fehler:
Stderr output

<core_client_version>7.16.1</core_client_version>
<![CDATA[
<message>
process exited with code 11 (0xb, -245)</message>
<stderr_txt>
16:45:37 (14462): [normal]: This Einstein@home App was built at: Jan 16 2017 08:09:16

16:45:37 (14462): [normal]: Start of BOINC application '../../projects/einstein.phys.uwm.edu/hsgamma_FGRPB1G_1.18_x86_64-pc-linux-gnu__FGRPopencl1K-ati'.
16:45:37 (14462): [debug]: 1e+16 fp, 5.7e+09 fp/s, 1852893 s, 514h41m32s73
command line: ../../projects/einstein.phys.uwm.edu/hsgamma_FGRPB1G_1.18_x86_64-pc-linux-gnu__FGRPopencl1K-ati --inputfile ../../projects/einstein.phys.uwm.edu/LATeah1063L29.dat --alpha 1.41058464281 --delta -0.444366280137 --skyRadius 5.526880e-07 --ldiBins 30 --f0start 412.0 --f0Band 8.0 --firstSkyPoint 0 --numSkyPoints 1 --f1dot -1e-13 --f1dotBand 1e-13 --df1dot 2.512676418e-15 --ephemdir ../../projects/einstein.phys.uwm.edu/JPLEPH --Tcoh 2097152.0 --toplist 10 --cohFollow 10 --numCells 1 --useWeights 1 --Srefinement 1 --CohSkyRef 1 --cohfullskybox 1 --mmfu 0.1 --reftime 56100 --model 0 --f0orbit 0.005 --mismatch 0.1 --demodbinary 1 --BinaryPointFile ../../projects/einstein.phys.uwm.edu/templates_LATeah1063L29_0420_22586088.dat --debug 1 --device 0 -o LATeah1063L29_420.0_0_0.0_22586088_0_0.out
output files: 'LATeah1063L29_420.0_0_0.0_22586088_0_0.out' '../../projects/einstein.phys.uwm.edu/LATeah1063L29_420.0_0_0.0_22586088_0_0' 'LATeah1063L29_420.0_0_0.0_22586088_0_0.out.cohfu' '../../projects/einstein.phys.uwm.edu/LATeah1063L29_420.0_0_0.0_22586088_0_1'
16:45:37 (14462): [debug]: Flags: X64 SSE SSE2 GNUC X86 GNUX86
16:45:37 (14462): [debug]: glibc version/release: 2.30/stable
16:45:37 (14462): [debug]: Set up communication with graphics process.

-- signal handler called: signal 1
3 stack frames obtained for this thread:
Frame 3:
Binary file: ../../projects/einstein.phys.uwm.edu/hsgamma_FGRPB1G_1.18_x86_64-pc-linux-gnu__FGRPopencl1K-ati (0x48b101)
Source file: hs_boinc_extras.c (Function: sighandler / Line: 291)
Frame 2:
Binary file: /lib64/libLLVM-9.so (0x7fa985f16dc3)
Offset info: +0x3789dc3
Frame 1:
Binary file: /lib64/libLLVM-9.so (0x7fa985f16dc3)
Offset info: +0x3789dc3

End of stcaktrace
16:45:37 (14462): called boinc_finish

</stderr_txt>
]]>
Die Grafikkarte wird erkannt in Boinc:
OpenCL: AMD/ATI GPU 0: AMD BONAIRE (DRM 2.50.0, 5.6.6-200.fc31.x86_64, LLVM 9.0.0) (driver version 19.2.8, device version OpenCL 1.1 Mesa 19.2.8, 2048MB, 2048MB available, 1204 GFLOPS peak)
OpenCL CPU: pthread-AMD Ryzen 5 2600 Six-Core Processor (OpenCL driver vendor: The pocl project, driver version 1.5-pre, device version OpenCL 1.2 pocl HSTR: pthread-x86_64-unknown-linux-gnu-znver1)

clinfo:
Number of platforms 2
Platform Name Clover
Platform Vendor Mesa
Platform Version OpenCL 1.1 Mesa 19.2.8
Platform Profile FULL_PROFILE
Platform Extensions cl_khr_icd
Platform Extensions function suffix MESA

Platform Name Portable Computing Language
Platform Vendor The pocl project
Platform Version OpenCL 1.2 pocl 1.5-pre, RelWithDebInfo, LLVM 9.0.0, RELOC, SLEEF, DISTRO, POCL_DEBUG
Platform Profile FULL_PROFILE
Platform Extensions cl_khr_icd
Platform Extensions function suffix POCL

Platform Name Clover
Number of devices 1
Device Name AMD BONAIRE (DRM 2.50.0, 5.6.6-200.fc31.x86_64, LLVM 9.0.0)
Device Vendor AMD
Device Vendor ID 0x1002
Device Version OpenCL 1.1 Mesa 19.2.8
Driver Version 19.2.8
Device OpenCL C Version OpenCL C 1.1
Device Type GPU
Device Profile FULL_PROFILE
Device Available Yes
Compiler Available Yes
Max compute units 14
Max clock frequency 1075MHz
Max work item dimensions 3
Max work item sizes 256x256x256
Max work group size 256
Preferred work group size multiple 64
Preferred / native vector sizes
char 16 / 16
short 8 / 8
int 4 / 4
long 2 / 2
half 8 / 8 (cl_khr_fp16)
float 4 / 4
double 2 / 2 (cl_khr_fp64)
Half-precision Floating-point support (cl_khr_fp16)
Denormals No
Infinity and NANs Yes
Round to nearest Yes
Round to zero No
Round to infinity No
IEEE754-2008 fused multiply-add No
Support is emulated in software No
Single-precision Floating-point support (core)
Denormals No
Infinity and NANs Yes
Round to nearest Yes
Round to zero No
Round to infinity No
IEEE754-2008 fused multiply-add No
Support is emulated in software No
Correctly-rounded divide and sqrt operations No
Double-precision Floating-point support (cl_khr_fp64)
Denormals Yes
Infinity and NANs Yes
Round to nearest Yes
Round to zero Yes
Round to infinity Yes
IEEE754-2008 fused multiply-add Yes
Support is emulated in software No
Address bits 64, Little-Endian
Global memory size 2147483648 (2GiB)
Error Correction support No
Max memory allocation 1503238553 (1.4GiB)
Unified memory for Host and Device No
Minimum alignment for any data type 128 bytes
Alignment of base address 32768 bits (4096 bytes)
Global Memory cache type None
Image support No
Local memory type Local
Local memory size 32768 (32KiB)
Max number of constant args 16
Max constant buffer size 1503238553 (1.4GiB)
Max size of kernel argument 1024
Queue properties
Out-of-order execution No
Profiling Yes
Profiling timer resolution 0ns
Execution capabilities
Run OpenCL kernels Yes
Run native kernels No
Device Extensions cl_khr_byte_addressable_store cl_khr_global_int32_base_atomics cl_khr_global_int32_extended_atomics cl_khr_local_int32_base_atomics cl_khr_local_int32_extended_atomics cl_khr_int64_base_atomics cl_khr_int64_extended_atomics cl_khr_fp64 cl_khr_fp16

Platform Name Portable Computing Language
Number of devices 1
Device Name pthread-AMD Ryzen 5 2600 Six-Core Processor
Device Vendor AuthenticAMD
Device Vendor ID 0x6c636f70
Device Version OpenCL 1.2 pocl HSTR: pthread-x86_64-unknown-linux-gnu-znver1
Driver Version 1.5-pre
Device OpenCL C Version OpenCL C 1.2 pocl
Device Type CPU
Device Profile FULL_PROFILE
Device Available Yes
Compiler Available Yes
Linker Available Yes
Max compute units 12
Max clock frequency 3400MHz
Device Partition (core)
Max number of sub-devices 12
Supported partition types equally, by counts
Supported affinity domains (n/a)
Max work item dimensions 3
Max work item sizes 4096x4096x4096
Max work group size 4096
Preferred work group size multiple 8
Preferred / native vector sizes
char 16 / 16
short 16 / 16
int 8 / 8
long 4 / 4
half 0 / 0 (n/a)
float 8 / 8
double 4 / 4 (cl_khr_fp64)
Half-precision Floating-point support (n/a)
Single-precision Floating-point support (core)
Denormals Yes
Infinity and NANs Yes
Round to nearest Yes
Round to zero Yes
Round to infinity Yes
IEEE754-2008 fused multiply-add Yes
Support is emulated in software No
Correctly-rounded divide and sqrt operations Yes
Double-precision Floating-point support (cl_khr_fp64)
Denormals Yes
Infinity and NANs Yes
Round to nearest Yes
Round to zero Yes
Round to infinity Yes
IEEE754-2008 fused multiply-add Yes
Support is emulated in software No
Address bits 64, Little-Endian
Global memory size 65302142976 (60.82GiB)
Error Correction support No
Max memory allocation 17179869184 (16GiB)
Unified memory for Host and Device Yes
Minimum alignment for any data type 128 bytes
Alignment of base address 1024 bits (128 bytes)
Global Memory cache type Read/Write
Global Memory cache size 8388608 (8MiB)
Global Memory cache line size 64 bytes
Image support Yes
Max number of samplers per kernel 16
Max size for 1D images from buffer 1073741824 pixels
Max 1D or 2D image array size 2048 images
Max 2D image size 32768x32768 pixels
Max 3D image size 2048x2048x2048 pixels
Max number of read image args 128
Max number of write image args 128
Local memory type Global
Local memory size 4194304 (4MiB)
Max number of constant args 8
Max constant buffer size 4194304 (4MiB)
Max size of kernel argument 1024
Queue properties
Out-of-order execution Yes
Profiling Yes
Prefer user sync for interop Yes
Profiling timer resolution 1ns
Execution capabilities
Run OpenCL kernels Yes
Run native kernels Yes
printf() buffer size 16777216 (16MiB)
Built-in kernels (n/a)
Device Extensions cl_khr_byte_addressable_store cl_khr_global_int32_base_atomics cl_khr_global_int32_extended_atomics cl_khr_local_int32_base_atomics cl_khr_local_int32_extended_atomics cl_khr_3d_image_writes cl_khr_fp64 cl_khr_int64_base_atomics cl_khr_int64_extended_atomics cl_khr_fp64


NULL platform behavior
clGetPlatformInfo(NULL, CL_PLATFORM_NAME, ...) Clover
clGetDeviceIDs(NULL, CL_DEVICE_TYPE_ALL, ...) Success [MESA]
clCreateContext(NULL, ...) [default] Success [MESA]
clCreateContext(NULL, ...) [other] Success [POCL]
clCreateContextFromType(NULL, CL_DEVICE_TYPE_DEFAULT) Success (1)
Platform Name Clover
Device Name AMD BONAIRE (DRM 2.50.0, 5.6.6-200.fc31.x86_64, LLVM 9.0.0)
clCreateContextFromType(NULL, CL_DEVICE_TYPE_CPU) No devices found in platform
clCreateContextFromType(NULL, CL_DEVICE_TYPE_GPU) Success (1)
Platform Name Clover
Device Name AMD BONAIRE (DRM 2.50.0, 5.6.6-200.fc31.x86_64, LLVM 9.0.0)
clCreateContextFromType(NULL, CL_DEVICE_TYPE_ACCELERATOR) No devices found in platform
clCreateContextFromType(NULL, CL_DEVICE_TYPE_CUSTOM) No devices found in platform
clCreateContextFromType(NULL, CL_DEVICE_TYPE_ALL) Success (1)
Platform Name Clover
Device Name AMD BONAIRE (DRM 2.50.0, 5.6.6-200.fc31.x86_64, LLVM 9.0.0)

ICD loader properties
ICD loader Name OpenCL ICD Loader
ICD loader Vendor OCL Icd free software
ICD loader Version 2.2.12
ICD loader Profile OpenCL 2.2
 
Deine Bonaire sollte eigentlich vom AMDGPU Treiber unterstützt werden, hast du den installiert, bzw. dessen OpenCL Anteil über Umwege?
Ansonsten wird deine Karte hier über Mesa/Clover angesprochen, also ausschließlich freies OpenCL. Das funktioniert bei Polaris und Vega auch mit den Einstein FGRP apps, kann natürlich auf älteren Karten auch schiefgehen. Milkyway zB. geht überhaupt nicht mit Mesa OpenCL, auch nicht auf neueren Karten.
 
Das habe ich mittlerweile versucht, aber es kam dann eine Fehlermeldung wg. unterschiedlicher DRM-Versionen.
Ich denke ich lasse es auch für dieses Jahr wieder sein mit GPU-rechnen
 
Hat hier wer ne aktuelle app conig für mich, ich bin irgendwie zu dösig mir selber eine zu bauen xD
 
Wenn man bereits in irgendeinem Projekt eine hat, dann kann man die einfach in ein anderes Projekt kopieren.
Dann einlesen lassen und in den Meldungen gucken, wie die aktuellen Projektnamen sind. Die setzt man dann einfach in die app config ein und lässt sie noch mal einlesen.

Meine sieht für Einstein so aus:

<app_config>

<app>
<name>hsgamma_FGRPB1G</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.5</cpu_usage>
</gpu_versions>
</app>

</app_config>
 
aber es gibt ja nicht nur die hsgamma oder?
 
Nein - aber ich nehm nur die, weil die am meisten Punkte auf der GPU bringen.

Darum ja einfach irgendwas reinschreiben und gucken, was alles angeboten wird an App-Namen.
 
Zuletzt bearbeitet:
Zurück
Oben Unten