GPUGRID (Ex-PS3GRID)

Reichen nicht auch Ohrkörksel? ???
 
Wie steht es hier eigentlich um die Windows-App?
Gut :)
Anders als noch hier, konnte ich mehrere erfolgreich abliefern.
Doppelposting wurde automatisch zusammengeführt:

Im GPUGrid Forum hat jemand eine nette Info gefunden: Wenn eine WU bei 100% steht und keine Restzeit mehr anzeigt, kann man sich anhand dieser zwei Dateien in etwa ausmalen, wie viel da noch kommt.

Anhang anzeigen 52745
Bace_protein_nH-4p-13k_asyncre.cntl:
MAX_SAMPLES = +70

run.log
Started: sample 121, replica 15

*chatt*

Ich male, aber das wird wohl eher abstrakte Kunst.
 
Wie steht es hier eigentlich um die Windows-App?
Gut :)
Anders als noch hier, konnte ich mehrere erfolgreich abliefern.
Doppelposting wurde automatisch zusammengeführt:

Im GPUGrid Forum hat jemand eine nette Info gefunden: Wenn eine WU bei 100% steht und keine Restzeit mehr anzeigt, kann man sich anhand dieser zwei Dateien in etwa ausmalen, wie viel da noch kommt.

Anhang anzeigen 52745
Klappt bei mir irgendwie nicht. Max Samples ist +70 und ich bin bei 194.

Ich bin mir nicht sicher, ob es checkpoints gibt. Denn Prozessorzeit seit letzten Checkpoint = Prozessorzeit = über 3 Stunden. Ich müsste aber mal booten...

Edit: Hab mal weiter oben in der Datei geschaut.
2023-04-05 18:53:24 - INFO - sync_re - Finished: ATM setup (duration: 68.45162874998641 s)
2023-04-05 18:53:24 - INFO - sync_re - Started: ATM simulations
2023-04-05 18:53:24 - INFO - sync_re - Additional number of samples: 70
2023-04-05 18:53:24 - INFO - sync_re - Started: sample 141
2023-04-05 18:53:24 - INFO - sync_re - Started: sample 141, replica 0
Also vermutlich rechne ich da nur was fertig, was Jemand anderes schon bis 141 samples angefangen hat und ich muss nun bis 211 samples warten. Dann wären es nur noch 17x5Minuten.
 
Zuletzt bearbeitet:
Tjaaaaa, das hat wohl nur sehr kurz funktioniert *chatt* Aber vielleicht werden die Werke von Malermeister Koschi mal was wert *elch2*

Da die WUs auf der 3080 meistens bei 80% GPU Auslastung laufen und auch Pausen einlegen, lasse ich inzwischen zwei gleichzeitig laufen. Klappt aber nur, wenn ich in den Projekteinstellungen "speichere für X Tage" hochsetze. Im BM wird das irgnoriert.
 
Zuletzt bearbeitet:
97-98% mit den ATMbeta auf der neuen, das lasse ich erstmal so und gucke mir das nach Ostern nochmal genauer an.
 
Die war ja mal seeeehr effizient.

War gut, dass ich mit dem Neustart gewartet habe, irgendwie ergab das nur Rechenfehler bei beiden vorhandenen WUs.

Jetzt heißt es wieder, eine Stunde auf den Download warten. Die niedrige Datenrate nervt echt und ich habe keine Ahnung, woran es hakt.
Noch dazu lief Asteroids gerade Amok - da ist wohl der BM inzwischen total verkonfiguriert und schreit nach Neuinstallation.
 
Es gibt gerade wieder frische ATMbeta...
Doppelposting wurde automatisch zusammengeführt:

Leider scheint GPUGrid nicht mit Instanzen zurecht zu kommen. Hab mir damit ein paar Python WUs zerschossen. Nachdem ATM nachkamen, war ich nicht lange traurig :-D
 
Leider scheint GPUGrid nicht mit Instanzen zurecht zu kommen. Hab mir damit ein paar Python WUs zerschossen. Nachdem ATM nachkamen, war ich nicht lange traurig :-D
Ich hatte auf dem 5700G mit RTX3050 in 2 Instanzen gleichzeitig die Phyton laufen ohne Probleme.
Nur wenn auf einer ne ATM dazukam brauchte die Phyton ewig.
 
Oh, wie hast du das hinbekommen?
Mir fällt eigentlich bisher nur ein dass ich product_name / set_host_info bisher nicht gesetzt habe.

Ich würde die Python gern CPU only rechnen, dafür brauch ich auf dem Nvidia host eine Instanz die WUs holt, dann stoppt. Anschließend laufen die Python im Fallbackmodus auf der CPU auf dem AMD only Knecht. So mein Plan *kopfkratz
 
Ich hab diese app_config.xml:
Code:
<app_config>
      <app>
      <name>PythonGPU</name>
      <max_concurrent>1</max_concurrent>
      <report_results_immediately/>
      <gpu_versions>
         <gpu_usage>0.5</gpu_usage>
         <cpu_usage>8</cpu_usage>
      </gpu_versions>
   </app>
</app_config>
Und in der cc_config.xml unter optoins für jede Instanz anderen Namen :
Code:
<device_name>NAME</device_name>
 
Irgendwie wollte ich auch das wohl schon mal in meinen Instanzer mit aufnehmen, hab ich wohl vergessen :-(
Danke dir!
 
So klappt es, mal gucken ob die Instanz mit Python GPU dann auf dem anderen Rechner auch läuft.


Heute morgen läuft der Download der > 3.5GB Anwendung mit 500kByte/s relativ fix, abends immer schnarchlangsam.
 
So klappt es, mal gucken ob die Instanz mit Python GPU dann auf dem anderen Rechner auch läuft.
Läuft trotz "Detected GPUs: 0", mann muss die coproc_info.xml per chattr +i coproc_info.xml auf unveränderbar setzen, dann nimmt BOINC deren Inhalt für bare Münze.
Auf dem System mit Cuda GPU waren mir idR. nur CPU Spitzen bis 200% aufgefallen, hier werden nun bis zu 400% genutzt. Ich bin mal auf die Laufzeit gespannt.
Doppelposting wurde automatisch zusammengeführt:


@JagDoc
Ich hab diese app_config.xml:
Code:
<app_config>
      <app>
      <name>PythonGPU</name>
      <max_concurrent>1</max_concurrent>
      <report_results_immediately/>
      <gpu_versions>
         <gpu_usage>0.5</gpu_usage>
         <cpu_usage>8</cpu_usage>
      </gpu_versions>
   </app>
</app_config>
Und in der cc_config.xml unter optoins für jede Instanz anderen Namen :
Code:
<device_name>NAME</device_name>
Sag mal macht der cpu_usage Teil bei dir einen Unterschied, abseits vom BOINC Scheduling?
 
Zuletzt bearbeitet:
Sag mal macht der cpu_usage Teil bei dir einen Unterschied, abseits vom BOINC Scheduling?
Bei der Laufzeit hab ich nichts bemerkt, die CPU-Auslastung war bei ca 4 Kernen.
Da liefen nur auf 2 Instanzen Python WUs.
Nur Wuprop zählt dann die CPU-Zeit richtig.
 

das ist meine Instanz auf dem AMD only System, läuft also und bekommt auch neue.
Man kann also auch mit einem CPU System bei GPUGrid teilnehmen, wo CPU cores günstig sind, könnte das Sinn machen.
 
Wieder 800 ATM Beta vorhanden!
 
und sofort die ersten mit Berechnungsfehler geschrottet :D
 
Hier auch. Wenngleich erst seit 7 Minuten *buck*
 
danke fürs melden. hatte noch zwei Python am Wickel und neue wollte er nicht anfragen, hab also in ner Instanz nach Arbeit gefragt und 4 ATM bekommen. Wie macht ihr das? Der @Landjunge Wurf gestern/vorgestern war ja beeindruckend, da hab ich schon wieder nur noch Python gehabt :-(
 
@koschi
da habe ich wohl einfach immer nur Glück gehabt das die ganzen Kurzläufer bei mir angeschwemmt wurden.
Die Pythons sind beim Projekt deaktiviert.
 
Ich habe es heute geschafft, einen neuen Rechner die App eines anderen Rechners unterzujubeln. Nach dem Start des Downloads einfach den Client gestoppt, die halb fertige Datei überschrieben und den Client wieder gestartet. Mal sehen wie lange die GT1030 für eine atm braucht.
 
Ja, sag mal bescheid wenns geklappt hat.
Komischerweise bekomme ich auf einem Phenom2 mit Linux Ubuntu und GTX1070 nur Berechnungsfehler. Neuster Treiber ist drauf und alle anderen Projekte liefen bisher. Jemand ne Idee?
 
Zurück
Oben Unten