Einstein@home - allgemeiner Austausch (News, Forenfunde, HowTo, etc.)

koschi

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
5.706
Renomée
704
Standort
0511
  • Spinhenge ESL
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
Hallo Mitcruncher,

damit aktuelle Entwicklungen und Tips zu Einstein@home nicht im Plauderthread untergehen, würde ich die hier gern dokumentieren.

https://einsteinathome.org/content/latest-data-file-fgrpb1g-gpu-tasks?page=12#comment-169615
Noch vor einigen Wochen/Monaten liefen RTX/Turing basierte Karten bei Einstein wohl nicht, man habe aber einen Workaround erstellt der verhindere dass problematische Tasks an neue Karten geliefert werden. Auch gab es für Nvidia Mitte Februar eine neue Version von FGRPopenclTV-nvidia. Damit sieht man hier angesichts der fehlenden Manpower keinen weiteren Handlungsbedarf.
Zukünftig wird sich Bernd Machenschalk darum kümmern die Suche nach Gravitationswellen auf die GPUs zu bringen. Es könnte also demnächst wieder ein zweites Subprojekt geben das auf GPUs läuft. Wunderbar!

https://einsteinathome.org/content/all-things-vega-vii?page=2#comment-169588
Vega allgemein und Radeon VII im Besonderen setzen bei Einstein (FGRPopencl) neue Maßstäbe. Letztere kann mit parallelen WUs ca. 1.7 Millionen Credits am Tag erreichen. Mächtig gewaltig!

Überwiegend AMD in der Übersicht der besten Rechner :
https://einsteinathome.org/community/stats/hosts

Auf AMD GPUs profitiert Einsteins Fast Gamma Ray Burst Anwendung von parallel laufenden WUs. Diese kann man entweder über die Einstein@home Seite konfigurieren oder über eine im Projektverzeichnis abgelegte app_info.xml.

Code:
<app_config>
    <app>
        <name>hsgamma_FGRPB1G</name>
    <gpu_versions>
        <gpu_usage>0.5</gpu_usage>
        <cpu_usage>1.00</cpu_usage>
    </gpu_versions>
    </app>
</app_config>
Diese app_config.xml erhöht auch die CPU Allokation pro FGRP1G WU, was du Laufzeit der WU nochmals beschleunigt.
 
Zuletzt bearbeitet:
Ich lese bei sehr vielen Linux + AMD-GPU, ist es doch einfacher als gedacht einzurichten?
Für die LTS-Versionen von Ubuntu gibt es ja von AMD den AMDgpupro-Treiber. Damit konnte ich den Rechner recht simpel einrichten und loscrunchen.
Der Pferdefuß ist die schmale Unterstützung von CPUs und GPUs. Die dürfen vom Alter her nicht zu weit einander liegen und wenn beide alt sind, muss auch das Ubuntu alt sein.
Aber wenn alles aus der gleichen, aktuellen Ära stammt und von LTS unterstützt wird, sehe ich keine Probleme.
 
Ja, der AMDGPU Treiber, bzw. dessen OpenCL Teil ist für Vega & Polaris recht fix eingerichtet auf Ubuntu 18.04 LTS und default Kernel 4.15.

Der aktuelle Treiber 18.50 liefert Unterstützung für folgende GPUs, die Firepro mal außen vor gelassen:
Code:
AMD Product Family Compatibility
AMD Radeon™ VII Graphics?
AMD Radeon™ RX Vega Series Graphics?
AMD Radeon™ Vega Frontier Edition
AMD Radeon™ RX 550/560/570/580/590 Series Graphics
AMD Radeon™ RX 460/470/480 Graphics
AMD Radeon™ Pro Duo
AMD Radeon™ R9 Fury/Fury X/Nano Graphics
AMD Radeon™ R9 380/380X/390/390X Graphics
AMD Radeon™ R9 285/290/290X Graphics
AMD Radeon™ R7 240/250/250X/260/260X/350
AMD Radeon™ HD7700/7800/8500/8600
?AMD Radeon™ R9 360 Graphics

GCN 2 Karten werden von AMDGPU nur experimentell unterstützt, könnte laufen, aber ohne Garantie. Also einfach mal ausprobieren :-)
 
Dann weiß ich leider immer noch nicht, was ich falsch gemacht habe.
Ich kann nicht einmal prüfen, ob boinc die GPU erkennt, weil schon nach dem reboot (nach der Treiber Installation) kein Bild mehr angezeigt wird :-(
 
Um welches OS geht es denn?
Ich hatte neulich auf dem Raven System für meine Eltern Linux installiert und Ubuntu 18.04 kam bei der Installation nicht mit der IGP klar und es gab kein Bild, bei 18.10 gab es keine Probleme allerdings habe ich dort BOINC nicht installiert. (wird/ist ein kompakter Multimedia PC)
 
Die Problematik ist vielleicht eher was für den Linux @ AMD GPU Thread, aber ich hatte mit einem R5 2400G im letzten Jahr auf Ubuntu 18.04.01 umgehend Erfolg erziehlt, also grundsätzlich geht das. Kein Bild ist natürlich schwer zu troubleshooten :-( Ggf. hilft dann noch Neustart in den Recoverymodus (oder heißt der Failsave?), dort dann zb. in /var/log/boot.log oder Xorg.0.log.old mal stöbern ob sich was findet...
 
Gibt es eigentlich für Binary Radio Pulsar Search (Arecibo, GPU) WUs, die auf Nvidia laufen?
Ich hatte bisher immer nur FGRPB1G bekommen, die vermutlich ausgeschrieben Gamma-ray pulsar binary search #1 (GPU) heißen.
Nur gibt es davon gerade 0 und das Projekt steht ja bereits bei 95% Fortschritt, ist also wohl bald Geschichte.

Was muss ich denn tun, um "FGRPopenclTV-nvidia" zu nutzen? Oder kommt das automatisch auf den Rechner?
 
Zuletzt bearbeitet:
Ah, das G am Ende steht also für GPU. :)
Na gut, dann hilft aktuell nur Däumchen drehen und langfristig hoffen, dass es noch ein weiteres GPU-Projekt gibt.
 
FGRPB1G wird auch wieder welche bekommen, die Fortschrittsanzeige bezieht sich immer nur auf die aktuell im BOINC bekannten WUs. Die Admins laden aber regelmäßig neue Batches nach, dann sollte die Fortschrittsanzeige wieder sinken...
 
Screenshot from 2019-03-10 23-58-21.png

Wir werden wohl seit langer Zeit die Woche mal wieder einen Platz gut machen. Keep 'em coming everyone!
 
Ich habe meine 40 Mio erreicht und bin bei Einstein wieder raus. Habe aber noch 2 Mio im Pending;D. Vieleicht hilft das noch ein bisschen.
 
Ach schade, die VII war ein geiles Teil hat den Durchsatz eines kleinen Teams gehabt :-D
 
https://einsteinathome.org/content/...earch-ligo-o1-open-data?page=4#comment-170317
We decided to do an intermediate "Engineering run" ("O1OD1E"), primarily to validate a GPU version of the O1OD1 application. Unfortunately we were slowed down in setting this up by a number of unrelated but urgent problems, but now we're basically ready. Sorry for the slow progress on that, particularly for the slow validation.

Currently there are CPU app versions for basically every platform, and GPU versions will be added when available and incrementally, as these have undergone only very limited internal testing. GPU app versions are marked "beta test" versions, so in order to get such "work", you will need to have Beta test applications enabled in your project preferences.

The applications use OpenCL (1.2). Currently we are sipping app versions only for NVidia cards on Linux and Mac OSX. There are indications that the current Windows App version is not "portable", i.e. doesn't run on all Windows installation, so we disabled it for the moment. More App versions for other platforms (Windows) and GPUs (AMD, Intel) as we gain confidence in the apps that have been published.

The Beta status of the GPU app versions means that every result of a GPU App version needs to be "validated" by that of a CPU version. This is intentional, actually it's the main purpose of that run to find out how the results compare.

Bei der GPU app für die Grawitationswellensuche gibt es Fortschritte. Diese sei als Testanwendung markiert und derzeit wohl nur für Linux verfügbar. Bei der Windowsversion gibt es noch Probleme. Ich habe nicht ernsthaft versucht WUs für meine GTX zu bekommen. Da ich FGRP nur auf der AMD Karte rechne, würde ich wenn ich WUs für Nvidia erlaube auch FGRP für die GTX bekommen, das würde ich gern vermeiden (die soll GPUGrid machen). Ich warte also erstmal ab...
 
Also ist O1OD1E = Engineering run on LIGO O1 Open Data
Die Abkürzungen bei Einstein sind ja selten wirklich intuitiv und erkennbar.
Mal sehen, ob ich irgendwann dafür was bekomme.
Aktuell bekomme nur die Fehlermeldung " " zu sehen.
 
Ich muss da auch immer 2 mal schauen, welche Abkürzung oder Anwendung wo passt..

Im Forum wird von ersten erfolgreichen Durchläufen der neuen GW GPU Anwendung berichtet. Die Auslastung sei aber sehr gering, der Geschwindigkeitsvorteil gegenüber einer CPU damit auch nur 2-3x. Das ist wenig berauschend, aber es geht voran. Denke die Auslastung wird mittelfristig besser und mit 2-3 WUs dann auch aktuelle Karten wieder auslasten.
 
Hat hier irgendwer ne Geforce unter Linux am laufen? Ich bekomme mit der GT1030 bei Ubuntu keine WUs geliefert weil angeblich der Jobcach voll wäre, obwohl keine einzige WU läuft. *suspect*
 
Ja, bei mir ging das noch vor ein paar Tagen, FGRP auf GTX@Linux.
Hast du im Eventlog schon sched_ops und sched_op_debug aktiviert? Evtl. mal alle anderen Projekte anhalten, dann bei Einstein nach Arbeit fragen?
Ich hatte hier nach dem Einbau der RX580 auch die wirresten Effekte, BOINC kam mit der Vielzahl der Excludes in cc_config.xml nicht zurecht und hatte daher auf allen GPUs die Arbeit eingestellt. Erst nachdem ich alle excludes entfernt hatte lief das wieder an. Ich füge die nun nur noch hinzu wo ich sie aktuell auch brauche...
 
nee, dafür habe ich nicht genug Ahnung. *g*
Es lief kein anderes Projekt und es waren deshalb genau 0 WUs in Arbeit, dennoch schrieb er in der Ereignisanzeige dass der Job Cache voll wäre. Seti lief davor einwandfrei und auch die danach gestarteten Milkyway WUs liefen einwandfrei durch.
 
Ich habe gestern einen Schwung opencl-ati O1OD1E für die RX580 bekommen.
Die Auslastung in den ersten 2min ist genau 0, danach stark schwankend, unterhalb von 50%. Selbst mit 4 Wus und 2 freien Threads taktet die Karte nicht hoch. edit: das ist eine uv. Einstellung, die Karte taktet hoch!
Laufzeit ca. 2.5-3.5h *4.
Die bisher mit CPU gegengerechneten Wus sind alle inconclusive.
Da auch WUProp die Zeiten noch nicht zählt werde ich das erst mal wieder beenden.

tasks

auslastung.gif
 
Zuletzt bearbeitet:
Ja, lohnt sich aktuell noch nicht...
https://einsteinathome.org/workunit/396688820

Eine GTX1050 Ti ist hier 4.53x schneller als ein Kern eines i7-4790. Aktuell wird noch nicht alles auf der CPU gerechnet, nur Teile auf die GPU ausgelagert, was die geringe bzw. schwankende Auslastung erklärt.

https://einsteinathome.org/de/conte...earch-ligo-o1-open-data?page=6#comment-170502
Validation ist better than we hoped for. So far we got 60 valid results, NO invalid, NO inconclusive.

We are still having problems building (actually linking) a "compatible" Linux App, i.e. one that does run on systems not identical to the one the App was built on. We keep working on it.

Our analysis basically consists of two parts, only one of which does so far run on the GPU, so quite a bit is still done on the CPU. Fortunately in the O1OD1 setup that part is rather small, and the total computation is largely dominated by the GPU part. The GPU app will reach its full potential when the other part of the computation is also done on the GPU. We are working on this, but it takes some more time.
 
Bei "Gravitational Wave Engineering run on LIGO O1 Open Data" gibt es neue CPU Anwendungen die teils die Laufzeit halbieren:

Bernd Machenschalk (Einstein@home):
https://einsteinathome.org/de/content/gravitational-wave-all-sky-search-ligo-o1-open-data?page=7#comment-170648 schrieb:
FWIW I'm currently testing some optimization to the CPU app (version 0.04 .. 0.06 and possibly more) that speeds up an O1OD1 task by about 20% by using a lookup table. The question is basically how large does this need to be to give enough precision to "validate".

Bernd Machenschalk (Einstein@home):
https://einsteinathome.org/de/content/004-005-and-006-all-beta-gravitational-wave-engineering-run-test-apps?page=1#comment-170679 schrieb:
In the app versions 0.04-0.06 part of the computation is sped up by using a "lookup table" for some usually slow computation (sinc()). This is less precise, but much faster. The difference between these app versions is the size of the table; we're looking for the size that gives enough precision for reliable validation. Speed between these App versions shouldn't vary at all, there's no difference in the code.

A doubling of speed is indeed pretty impressive, what I got from averaging over all hosts that ran both is only 20-25%. There may be outliers, we issued these app versions as "Beta Test" only due to the probably poor validation.


Gary Roberts (Moderator):
https://einsteinathome.org/de/content/004-005-and-006-all-beta-gravitational-wave-engineering-run-test-apps?page=1#comment-170658 schrieb:
The 0.06 app turned up last night, just as I was preparing to wind things up for the day. It was listed on the apps page without the beta tag. This morning it's now listed as beta so I've adjusted the thread title to reflect that.

I'm running these CPU tasks on a couple of Athlon 200GE based systems - Ryzen processors but lower core count and clock speed compared to the more expensive members of the series. I have times for apps from 0.03 to 0.06. Initially, I wasn't allowing test apps so there aren't any 0.04 results to give.

There is a short note from Bernd in Technical News about what's going on so it looks like this very welcome speed increase might be here to stay! Thanks Bernd!!

Here are the approx crunch times so far for the above processor model. I should add that the internal Vega graphics capability was being used to crunch FGRPB1G tasks simultaneously. The task mix was 2xO1OD1E and 1xFGRPB1G. The GW times cover some quite different spin frequencies and I don't know if that has any effect on the speed of crunching.

Code:
             App V     Crunch Time     #Tasks
             =====     ===========     ======
              0.03     ~29,600 sec      >100
              0.04            -         none
              0.05     ~15,600 sec        10
              0.06     ~16,100 sec         4
I'll update the above table once there are a few more 0.06 tasks to give a better indication. At this point I wouldn't claim that 0.06 is necessarily worse than 0.05, although I think it could be - slightly. There is a bit of variability in the times so a bigger sample size is needed. I was quite interested to see that the calculations appear to be relatively linear since last night's prediction at 7% done turned out to be quite accurate.

One of the 0.06 tasks has already validated against a 0.03 so that looks hopeful for what Bernd is trying to achieve.


Eine recht langsame Berechnung wurde also durch eine Nachschlagetabelle ersetzt, dadurch reduziert sich die Rechenzeit signifikant. Ein R7 könnte damit allein per CPU 80-100k Credits erreichen.
 
Zuletzt bearbeitet:
Bei "Gravitational Wave Engineering run on LIGO O1 Open Data" gibt es neue CPU Anwendungen die teils die Laufzeit halbieren
Rentiert sich damit das Rechnen per CPU im Vergleich zur GPU?

Was hat es eigentlich mit folgender Einstellung auf sich?
Code:
Run Linux app versions built with LIBC 2.15:
Sollte das aktiviert sein, oder nicht? Hat das Auswirkungen auf Rechenzeiten etc?

Gruß,
Ritschie
 
Ich hab gerade eine LIGO O1 auf der HD7950 erwischt.
Die dümpelt mit 10-20% GPU-Last vor sich hin. Die GPU taktet sich nicht mal hoch, so wenig hat sie zu tun. Die wird wohl so an die 3 Stunden brauchen
 
Zuletzt bearbeitet:
Zurück
Oben Unten