Allgemeiner Plauderchat über das Thema DC Part IV

Genaustens, Danke! :D
 

Manche Nvidia GPU Besitzer berichten von gestiegener Performence in Games.
Vielleicht kann ja auch Boinc von dem neuen Treiber profitieren?
Möglich, dass es aber auch gar keinen Effekt hat. *noahnung*
Ihr könnt es ja mal ausprobieren.
 
Ich vermute einfach mal, dass die Miningbremse Einfluss auf die Gesamtperformance hatte. Nu isse wech und schwupps...

Welches (Unter) Projekt hat denn immer gleichlang dauernde GPU WUs? Dann teste ich gern den neuen Treiber. Einstein hat nix, Numberfields und PG PPS Sieve laufen unterschiedlich lang. Bin im Moment bei Moo! Das scheint zu passen.
 
Jetzt hab ich ein Dutzend bekommen. Kann keine Veränderung feststellen.
 
@FritzB , hast du da eine eigene app_info.xml für Moo oder bekommst du die opencl Version automatisch? Ich bekomme hier nur die cuda31 Version. Bin seit gestern stolzer Besitzer einer 3070 (in der Bucht für 440€ geschossen) und wollte da mal bisschen was probieren. :cool:
 
Das ging automatisch. Hab in den Projekteinstellungen "auto select" gewählt. Kann aber nicht sagen, ob es daran liegt.
1665923967622.png
 
Ok, danke dir. Ich werd mal bisschen rechnen lassen, vielleicht bekomme ich ja mal eine von der opencl Sorte.
 
HAH! Wer sucht wird fündig... Da ich bis jetzt keine Sonne gefunden habe -> noch mal auf alten Platten gesucht.

Kann mich jetzt bei GPUGRID anmelden. Das alte, scharfkantige Gehäuse hatte noch eine Platte drin. Passenderweise hieß die Kiste »waitandbleed« mit Namen. :D Jetzt fehlt nur noch eine nVidia-Karte die etwas performanter ist... ;)

Grüße, Martin
 
Diese Python Dinger sind zusätzlich ganz schön CPU lastig. Der 3700X tobt bei 50-70% Auslastung rum.
 
Diese Python Dinger sind zusätzlich ganz schön CPU lastig. Der 3700X tobt bei 50-70% Auslastung rum.
Unter Linux ist die CPU-Last viel weniger.
Der 5700G mit RTX3050 hat ca. 25% CPU-Auslastung.
Die ganz langen WUs haben max. 11,5h Laufzeit und 45h CPU-Zeit.
 
Jedes neue batch scheint sehr unterschiedlich zu sein. Hatte welche, die auf dem 4800H mit GTX 1650 Ti keine 20 Min brauchten.
Bei den WUs, die an der Stelle der "10" eine 8 oder 9 haben, laufen sehr kurz.
e00004a00025-ABOU_rnd_ppod_expand_demos25_10-0-1-RND7561_0
Auf CPU hatte ich da nicht geachtet. Die 3er, 10er, 11er hauen voll rein :)
 
Was tut ihr hier? :o GPUGrid?
 
Ist das unter Linux eigentlich normal, dass sich die microsd-Karte eMMC-Karte immer wieder vermehrt?

1666006039950.png
1666006107156.png
 
@cologne46

Nein. Die Frage ist wieso es mehrfach gemountet ist.

Was sagt mount an der Konsole?

Grüße, Martin
 
Nach einem Neustart sieht das normal aus. Das war früher auch anders meine ich.

odroid@2N2Plus:~$ mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
udev on /dev type devtmpfs (rw,nosuid,noexec,relatime,size=1889068k,nr_inodes=472267,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=380116k,mode=755)
/dev/mmcblk0p2 on / type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
bpf on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/debug type cgroup (rw,nosuid,nodev,noexec,relatime,debug)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/schedtune type cgroup (rw,nosuid,nodev,noexec,relatime,schedtune)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=28,pgrp=1,timeout=0,minproto=5,maxproto=5,direct)
mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime)
configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime)
/var/lib/snapd/snaps/bare_5.snap on /snap/bare/5 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/core18_2563.snap on /snap/core18/2563 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/chromium_2078.snap on /snap/chromium/2078 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/core18_2570.snap on /snap/core18/2570 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/core20_1614.snap on /snap/core20/1614 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/core20_1627.snap on /snap/core20/1627 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-28-1804_147.snap on /snap/gnome-3-28-1804/147 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-28-1804_160.snap on /snap/gnome-3-28-1804/160 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-38-2004_116.snap on /snap/gnome-3-38-2004/116 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-38-2004_122.snap on /snap/gnome-3-38-2004/122 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gtk-common-themes_1534.snap on /snap/gtk-common-themes/1534 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gtk-common-themes_1535.snap on /snap/gtk-common-themes/1535 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/snapd_16782.snap on /snap/snapd/16782 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/snapd_17032.snap on /snap/snapd/17032 type squashfs (ro,nodev,relatime,x-gdu.hide)
/dev/mmcblk0p1 on /media/boot type vfat (rw,relatime,fmask=0077,dmask=0077,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime)
tmpfs on /run/user/1000 type tmpfs (rw,nosuid,nodev,relatime,size=380116k,mode=700,uid=1000,gid=1000)
gvfsd-fuse on /run/user/1000/gvfs type fuse.gvfsd-fuse (rw,nosuid,nodev,relatime,user_id=1000,group_id=1000)
/dev/mmcblk1p1 on /media/odroid/32GB_SD type ext4 (rw,nosuid,nodev,relatime,data=ordered,uhelper=udisks2)
tmpfs on /run/snapd/ns type tmpfs (rw,nosuid,nodev,noexec,relatime,size=380116k,mode=755)
/dev/mmcblk0p2 on /tmp/snap.rootfs_Vcwon2 type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_CQBEAW type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_msgisa type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_9i2FJg type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_cJM3Bd type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_YHllbf type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_b0DUUY type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_qMO2HU type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_hQUauE type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_8LI53z type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)
/dev/mmcblk0p2 on /tmp/snap.rootfs_o6O0mo type ext4 (rw,relatime,errors=remount-ro,stripe=32716,data=ordered)

Falls das hilft: Hier ist auch Gridcoin auf der microsd installiert und dessen Autostart funktioniert nicht.
 
Eine Frage in die Runde:

Ich habe "früher" immer Asteroids@Home rechnen lassen, wenn ich die CPU mal so richtig auslasten wollte (AVX). Siehe hier:

01.png


Das Projekt scheint aktuell nicht online zu sein.

Welches CPU-Projekt könnte ich alternativ einsetzen, wenn es um eine möglichst hohe Auslastung der CPU geht?
Späte Rückmeldung, aber ich bin gestern erst fündig geworden.

Habe seit langem mal wieder Rosetta@home versucht. Die haben nun wieder einen auskömmlichen Vorrat an Nicht-Python-WUs. Habe meinen 5950X auf allen threads mit Rosetta@Home eingedeckt. Unter ECO schafft er so nur 2,5 GHz allcore. Bei Milkyway nbody und anderen CPU-Projekten kommt er eher auf 3,5 - 3,7 GHz allcore (natürlich auch unter ECO).

Daher scheint bei Rosetta@Home in den Cores ordentlich was abzugehen :)
 
Also von Montag bis jetzt habe ich 36,1 GB Speicherplatz hinzugewonnen. Wenn das real so funktionieren würde, wäre das toll.
Ich habe nur die Sorge, dass der irgendwann mal was auf die falsche "Platte" schreibt. Ist ja alles nur temporär (/tmp/snap.rootfs).
1666164180425.png
Auf einem anderen Odroid sind es mittlerweile schon 493,6 GB.
1666165243800.png

Ich habe das Thema mal im Odroid Forum aufgmacht, da dies hier ja nun zu offtopic ist.
 
Zuletzt bearbeitet:
Eine Frage in die Runde:

Ich habe "früher" immer Asteroids@Home rechnen lassen, wenn ich die CPU mal so richtig auslasten wollte (AVX). Siehe hier:

01.png


Das Projekt scheint aktuell nicht online zu sein.

Welches CPU-Projekt könnte ich alternativ einsetzen, wenn es um eine möglichst hohe Auslastung der CPU geht?
Späte Rückmeldung, aber ich bin gestern erst fündig geworden.

Habe seit langem mal wieder Rosetta@home versucht. Die haben nun wieder einen auskömmlichen Vorrat an Nicht-Python-WUs. Habe meinen 5950X auf allen threads mit Rosetta@Home eingedeckt. Unter ECO schafft er so nur 2,5 GHz allcore. Bei Milkyway nbody und anderen CPU-Projekten kommt er eher auf 3,5 - 3,7 GHz allcore (natürlich auch unter ECO).

Daher scheint bei Rosetta@Home in den Cores ordentlich was abzugehen :)

Danke für die Rückmeldung. Die kommt für den konkreten Fall jetzt zwar zu spät, da ich meinen Test schon abgeschlossen habe, ich behalte das trotzdem im Hinterkopf. :)
 
Hat jemand vor, sich (auch) für BOINC eine Intel ARC Karte zu kaufen? Lt. Geizhals haben die ein SP/DP Verhältnis von 1:4. Damit würde die A750 bei DP im gleichen Bereich wie eine Radeon VII landen.
 
Gabs da nicht auch mal eine paar Nvidia Titans, die ihre brachiale DP-Leistung überhaupt nicht auf die Straße bringen konnten?

Aber intel? Nee, so schlimm geht es mir noch nicht.
 
Zurück
Oben Unten