app_config.xml

Danke. Das funzt.

Also wichtig: Der Applikationsname muss stimmen, klar, sonst wird's ignoriert...
Aber die Client_state ist auch nicht gerade übersichtlich.

Das wird ne Zeit dauern, bis ich alle Namen rausgefunden habe....

====>
Habe die Dockings aber noch auf 4 WUs runtergenommen, da sonst die Poem-Laufzeiten auf schätzungsweise 50 min hochgingen.
Sicher wegen 100% CPU-Last. Jetzt sollte alles bei ca. 90% CPU wieder normal sein. Mal sehen.
 
Zuletzt bearbeitet:
Du musst ja nicht extra für jedes Projekt eine app_config anlegen. Es lohnt sich meiner Meinung nur für GPU Apps oder für CPU Apps, welche extremen Arbeitsspeicher belegen.
Um die restlichen Resourcen muss sich der Boinc Scheduler kümmern!
 
Hm, hatte ich auch gehofft, zumal es ja hieß, dass die GPUs vorrangig bedient werden.
Mein Beispiel mit Poem und Docking zeigte das Gegenteil...

Ich kann nur hoffen, dass das bei Mischbetrieb nicht immer so ist.
Dann wäre es sogar umständlicher als bisher.
 
Hm, hatte ich auch gehofft, zumal es ja hieß, dass die GPUs vorrangig bedient werden.
Mein Beispiel mit Poem und Docking zeigte das Gegenteil...

Ich kann nur hoffen, dass das bei Mischbetrieb nicht immer so ist.
Dann wäre es sogar umständlicher als bisher.
Das ist auch normalerweise der Fall. Es muss ja einen Grund geben, warum die GPU WUs verdrängt werden.
Hast du auch den Haken bei 'Use GPU while computer is in use gesetzt?
400px-AdvancedPrefsProcessor.png
 
Jo, beide Haken sind bei allen PCs gesetzt :)

Das wars also nicht.
 
die Ressource shares sind wie folgt:
Poemm 800
Docking 100
Yoyo 100

Yoyo habe ich gleich mal mit aufgezählt, weil Yoyo auch dazu neigt, Poem zu verdrängen!
Genauso wie Docking.
Hatte mir sogar für Yoyo eine app-Config geschnitzt mit 4(?) Unterprojekten, jeweils 2 WUs erlaubt und es kam, wie es kommen musste ;D ich hatte 6x Yoyo laufen und nur noch zwei Poem... Habe jetzt alle Yoyos auf 1 gesetzt und im Moment gehts.
Aber scheint keine Lösung zu sein, sondern nur ne Krücke.

Schick wäre es, wenn man Yoyo sagen könnte, max. xx WUs, unabhängig, welches Unterprojekt...in Summe also.

Poem@home
Ressourcenverteilung 800
Benutze CPU nein
Benutze ATI GPU ja
Benutze Nvidia GPU ja
Ist es OK für POEM@HOME und Dein Team (wenn beigetreten) Dich per E-Mail zu kontaktieren? ja
Sollen deine Computer auf der POEM@HOME Webseite angezeigt werden? ja
Computerstandort (Standard) home
Color scheme Tahiti Sunset
Max frames/sec 100

Docking@home
Resource share 100
Is it OK for Docking@Home and your team (if any) to email you? yes
Should Docking@Home show your computers on its web site? yes
Color scheme for graphics Tahiti Sunset
Max frames/second for graphics
0 or blank if no limit 0
Maximum CPU % for graphics 100

cc_config muss ich überhaupt erstmal eine basteln, da ich bisher noch nie eine verwendet habe...*noahnung*
Reicht der Codeschnipsel da aus oder muss ich mehr haben? Und wo genau muss sie liegen?
 
Zuletzt bearbeitet:
Meine Beispiel cc_config.xml kannst du so übernehmen, ich habe die wichtigsten log_flags gesetzt, um das Scheduling mitzuverfolgen.
Die cc_config.xml kannst du z. B. mit dem Notepad erstellen und ins BOINC data directory (bei Win7 ist dies gewöhnlich "C:\ProgramData\BOINC\projects\...") kopieren. Beachtete, dass die Dateiendung 'xml' lautet und nicht 'xml.txt' oder ähnliches!
 
Haha, *lol*, ja, das mit der doppelten Dateiendung ... .xml.txt habe ich schon durch.

;D
Da kannst du 100 mal reinschauen und den Fehler suchen - keiner drin in der Datei - und trotzdem wird sie ignoriert - komisch *suspect*

War bei einer meiner app_config.xml passiert. Habe ne Weile gebraucht, um das zu finden...
 
Ich habe den Startpost für die app_config.xml nochmals angepasst und von dort die Anweisung kopiert.
Es passiert dem ein oder anderen immer wieder, da kann ein kleiner Hinweis doch schnell helfen!
 
@olsen_gg

Da macht sich aber jemand ne Menge Arbeit ;)


Hatte ebend Asteroids laufen (5 Asteroids + 2 EinsteinGPUs), obwohl noch ein paar frühere WCG da sind.
Bunkerwert auf 9 Tage gestellt, siehe da es wird der Reihe nach weitergearbeitet, jetzt allerdings im Panikmodus (6 WCG + 2 EinsteinGPUs), da im Bereich der Deadline. Bei Anhalten der WCGs dasselbe mit Asteroids (6 Asteroids + 2 EinsteinGPUs).
Na in dem Modus sind die Einsteins erst in 50.000 sec fertig und das muß nicht unbedingt sein.



Bunkerwert nach dem Runterladen wieder auf Null stellen! Und es lüppt wieder alles normal.
Falls der Boincpanikmodus allerdings erwünscht ist, um ein Abarbeiten der CPU-Wus der Reihe nach zu ermöglichen, dann Boinc ein oder mehr Cores nehmen (damit die GPU ausreichend Corenutzung hat)

Die <app_config> sollte eigentlich nur für Sondersettings bei den GPU Projekten sein.
 
...
Die <app_config> sollte eigentlich nur für Sondersettings bei den GPU Projekten sein.
Ich finde die app_config äußerst hilfreich bei GPU Apps, die sich keine kompletten CPU Kerne als Coprozessor benutzen:
DistrRTgen: 0.954 CPUs
Einstein@Home: 0.5 CPUs
PrimeGrid : 0.808 CPUs
Bei diesen setze ich cpu_usage auf 1.0 und danach muss ich keine Anpassungen mehr in den Local preferences bei 'On multiprocessor systems, use at most X % of the processors' machen.
 
Ich finde die app_config äußerst hilfreich bei GPU Apps, die sich keine kompletten CPU Kerne als Coprozessor benutzen:
DistrRTgen: 0.954 CPUs
Einstein@Home: 0.5 CPUs
PrimeGrid : 0.808 CPUs
Bei diesen setze ich cpu_usage auf 1.0 und danach muss ich keine Anpassungen mehr in den Local preferences bei 'On multiprocessor systems, use at most X % of the processors' machen.


Die Beispiele sind nicht so günstig. Eine Einstellung im Boinc, und alle 3 laufen..
Wenn nur ab und zu mit der GPU gerechnet wird oder mal 1 dann 2 Cores benötigt werden, dann ist die die app_config in jedem Projekt schon angebracht!
 
Habe wieder mal ein Problem, diesmal nur mit WCG auf einer Maschine:

Ziel war:
4x hcc1 auf der GPU und dann je eine (irgendwas) WCG auf den freien Kernen.
(8 Kerne sind da - FX-8120)

app_config.xml:
<app_config>
<app>
<name>hcc1</name>
<max_concurrent>4</max_concurrent>
<gpu_versions>
<gpu_usage>0.25</gpu_usage>
<cpu_usage>0.75</cpu_usage>
</gpu_versions>
</app>
</app_config>

Und da ich gelesen habe, die GPU wird zuerst bedient, habe ich den Rest garnicht beachtet und bei WCG alle Unterprojekte angehakt, außer hcc1 (weil ich die hcc1-CPU-WUs nicht will), usw.

Und was passiert? Wie immer: Die CPU (!) wird zuerst bedient und kriegt deshalb 8 verschiedene CPU-WUs verpasst, obwohl GPU-WUs genug da sind.
Zum Schluss versucht der BM dann, die GPU zu bedienen und quetscht irgendwo eine (!) GPU-WU rein, die dann aber ewig läuft, anstatt in 14-15min durch zu sein *noahnung*8-(

Ich glaube ich gehe wieder zurück auf die Version .28.
Da hatte ich nicht so unglaublich viel Handarbeit vor mir.


==============
Irgendwie ist das noch ziemlich buggy.
Wenn ich das Tag <max_concurrent>x</max_concurrent> über dem Tag <app>....</app> einordnen könnte und es dann für alle Tags <app> gelten würde, wäre es sowas von einfach...
Ich weiß dann, meine 4 GPU-WUs haben 3 Kerne reserviert..., 5 sind frei, also <max_concurrent>9</max_concurrent>
Und schon sollte es laufen: 4 auf der GPU, 5 auf den übrigen Kernen.

Aber das ist Theorie. Gut, das ich nicht der Coder war ;D
 
Zuletzt bearbeitet:
Da Du die anderen Projekte erlaubt hast, hast Du bestimmt jetzt überreichlich CPU-Wus.
Würde nur hcc mit disabelter cpu und erlaubter gpu nehmen.


Laufen die CPU-Wus mit hoher Priorität?
 
Sehr schöne Sache, diese neue app_config. Besser als diese alte Fummelei in tausenden Zeilen in der app_info.

Nur bringen scheinbar mehr WUs bei HCC (WCG) nichts auf einer GTX470. Laufzeiten verdoppeln sich so ziemlich exakt.
 
Da Du die anderen Projekte erlaubt hast, hast Du bestimmt jetzt überreichlich CPU-Wus.
Würde nur hcc mit disabelter cpu und erlaubter gpu nehmen.


Laufen die CPU-Wus mit hoher Priorität?

Die CPU-WUs laufen komischer Weise alle mit hoher Priorität :]
Ich habe die Sache jetzt mit Wahnsinnsaufwand eingedämmt:
app_config.xml mit allen WCG-Unterprojekten und für die CPU-Projekte je nur max_concurrent=1 (oder 0).
Erstmal läuft es jetzt so, wie gedacht: 4x hcc1 auf GPU + 5 CPU-WUs (alle verschieden)
:(
Aber eigentlich hatte ich nicht vor, ne xml in "Megabytegröße" zu schreiben...
 
Von der hohen Priorität müssen wir weg!!
Bunker auf 0 setzen.
Hilft das nicht, dann lösch einige WCG CPU Wus, solange bis hohe Priorität verschwindet.

Dann läuft es nach Deinen Vorgaben. Über den Manager wollen wir nicht gehen.
 
Zuletzt bearbeitet:
Ich versuche das mal.

Erstaunlicherweise ist das auf der zweiten Maschine genauso:
Da hatte ich Probleme mit Docking und verdrängten Poems --- und auch da laufen alle CPU-WUs mit hoher Priorität.

Und auf beiden habe ich so reichlich CPU-WUs, dass die normalerweise nicht vor der Deadline zu schaffen sind...:o

Wenn das die Ursache ist.... *noahnung*.... oh, mann
 
Wenn die Wus mit hoher Priorität gefahren werden, werden alle anderen Vorgaben unterdrückt.

Und normal reicht die app_config für hcc1/Einstein. Die app_configs für die Cpu-Projekte sind Humbug.
 
Es muss ja einen Grund geben, warum die CPU WUs mit überhöhter Prio laufen.
Welche BoincVersion nutzt du und wie kurz ist die Deadline der WUs mit der erhöhten Priorität?
 
Naja, der "Humbug" hat den Zustand aber erst mal erzwungen.
Insofern war's schon o.k.

So: Bunker steht auf 0,5 / 0,0Tage
Alle CPU-WUs bis auf 6...8 pro Unterprojekt abgebrochen, Projekt aktualisiert und tja, alle sind auf normaler Priorität.

Nun sollte ich also meine erste Version der app_config.xml erneut probieren...
Dann bis gleich ;)

=====
Super *knuddel*
Das war auch zu einfach, Das konnte ich garnicht finden *lol*
.
EDIT :
.

Es muss ja einen Grund geben, warum die CPU WUs mit überhöhter Prio laufen.
Welche BoincVersion nutzt du und wie kurz ist die Deadline der WUs mit der erhöhten Priorität?

Ja, ist gelöst.
Boinc-Version die aktuellste...
Aber viel zu viele CPU-WUs im Bunker, Bunker vermutlich auch noch zu hoch gestellt (noch wegen Poem) und deshalb viele, die vor Deadline nicht zu schaffen waren und deshalb auch die CPU-WUs auf "hohe Priorität"
Habe ich doch richtig verstanden?

Bunker runtersetzten und aufräumen hat das Problem sofort gelöst.
 
Zuletzt bearbeitet:
Pollux schrieb:
Die app_configs für die Cpu-Projekte sind Humbug.
Außer, es sollen nur eine oder nur wenige Wus eines Projekts gerechnet werden
RNA, The Clean Energy Project - Phase 2 ......





Super *knuddel*
Das war auch zu einfach, Das konnte ich garnicht finden *lol*
Und wenns ärgert, wirds noch schlimmer.
Aber es lüppt endlich, wie es soll. ;)





edit
Wenn die Arbeit von WCG nur für die GPU erwünscht ist:
Nur HCC anhacken + Grafik und dann
Ishtel schrieb:
Falls du WCG nur auf der GPU nutzen willst:
Im device-profile "use CPU" auf "No" stellen

Bei der anderen Option gibt es meist massig Work für die CPU und wenig bis gar nichts für die GPU.
 
Zuletzt bearbeitet:
Seltsames gibts trotzdem immer mal wieder zu berichten:

Mein FX-6300 sollte, da mal wieder nix läuft mit Poem, nun wie folgt arbeiten:
2x Einstein (GPU) und 5x Yoyo (CPU, Unterprojekt egal)

Ja, ich konnte ihn aber nicht überreden. Die zwei Einsteins liefen problemlos, aber nur zwei Yoyos, obwohl genügend im Bunker warteten...

Gesucht und gesucht und (wie immer) nix gefunden. Das will aber ja nichts heißen.
Zum Schluß habe ich in meiner Verzweiflung und ohne echten Glauben an Besserung den BM und alle Aufgaben beendet und neu gestartet... Und siehe da:
2x Einstein und 5x Yoyo *noahnung* prima, aber wieso nicht gleich?

(Konfigurationsdateien neu einlesen hatte ich vorher ..zig mal gemacht, ohne Erfolg.)

===================================
Genauso seltsam:
Auf dem FX-8120 hat sich eine (einzige) Poem-WU eingefunden, woher auch immer und teilt sich jetzt die GPU brüderlich mit 3 HCC-WUs. Das scheint kein Problem zu bereiten. Nur die Laufzeit scheint viel höher als sonst - sieht nach fast 2h aus für die Poem. Ich mag sie aber auch nicht anhalten.
 
Zuletzt bearbeitet:
Hast du in den Local_preferences irgendwo etwas limitiert, CPU, RAM, HDD?
.
EDIT :
.

Seltsames gibts trotzdem immer mal wieder zu berichten:

Mein FX-6300 sollte, da mal wieder nix läuft mit Poem, nun wie folgt arbeiten:
2x Einstein (GPU) und 5x Yoyo (CPU, Unterprojekt egal)

Ja, ich konnte ihn aber nicht überreden. Die zwei Einsteins liefen problemlos, aber nur zwei Yoyos, obwohl genügend im Bunker warteten...

Gesucht und gesucht und (wie immer) nix gefunden. Das will aber ja nichts heißen.
Zum Schluß habe ich in meiner Verzweiflung und ohne echten Glauben an Besserung den BM und alle Aufgaben beendet und neu gestartet... Und siehe da:
2x Einstein und 5x Yoyo *noahnung* prima, aber wieso nicht gleich?

(Konfigurationsdateien neu einlesen hatte ich vorher ..zig mal gemacht, ohne Erfolg.)

===================================
Genauso seltsam:
Auf dem FX-8120 hat sich eine (einzige) Poem-WU eingefunden, woher auch immer und teilt sich jetzt die GPU brüderlich mit 3 HCC-WUs. Das scheint kein Problem zu bereiten. Nur die Laufzeit scheint viel höher als sonst - sieht nach fast 2h aus für die Poem. Ich mag sie aber auch nicht anhalten.

Hast du eigentlich schon mal meine cc_config.xml von oben probiert?
 
Zurück
Oben Unten