Neues deutsches Bioinformatik-Projekt

Bei mir läuft eine CMS die braucht 4,7GB :o

cu JagDoc
 
so, die Monster WU hat sich nach 281h ununterbrochenem gecrunche nun auch erledigt ;)
Abbruch, ende, aus.
was solls. ist halt ein "bischen" rechenzeit draufgegangen :D
 
Bei mir werden derzeit die fetten WUs mit dem FehlerCode 195 beendet, ausnahmslos alle, nach 40 bis 60 Minuten ist ende.
 
Jungs, wir müssen den RAM-Bedarf dringend eindämmen - ich staune nicht schlecht. ;D Könnt ihr bitte mal ein Auge drauf haben, ob die Abbrecher NUR 32-Bit Maschinen sind oder ob auch 64-Bit Kisten darunter sind? Das wäre eine wichtige Information.

Michael.
 
Jungs, wir müssen den RAM-Bedarf dringend eindämmen - ich staune nicht schlecht. ;D Könnt ihr bitte mal ein Auge drauf haben, ob die Abbrecher NUR 32-Bit Maschinen sind oder ob auch 64-Bit Kisten darunter sind? Das wäre eine wichtige Information.

Michael.
Hier eine cmc - Abbrecher (Error 195) auf einer Win7 64 bit Maschine:http://www.rnaworld.de/rnaworld/result.php?resultid=1293932
Meine Top-WU war 3,5 GiB auf einer 64bit Win7 Maschine. Andere waren bei > 2Gib
Solange das Thema nicht aufgearbeitet ist und so leid es mir tut - RNA wird hintangestellt.
Ich frage mich wieso diese als invalid gekennzeichnet wurde?
 
Zuletzt bearbeitet:
Hier eine cmc - Abbrecher (Error 195) auf einer Win7 64 bit Maschine:http://www.rnaworld.de/rnaworld/result.php?resultid=1293932
Meine Top-WU war 3,5 GiB auf einer 64bit Win7 Maschine. Andere waren bei > 2Gib
Solange das Thema nicht aufgearbeitet ist und so leid es mir tut - RNA wird hintangestellt.
Ich frage mich wieso diese als invalid gekennzeichnet wurde?

Weil dein Rechner sich vermutlich verrechnet hat:

http://www.rnaworld.de/rnaworld/workunit.php?wuid=514108

3 Results und deines passt vermutlich nicht zu den beiden anderen.
 
Weil dein Rechner sich vermutlich verrechnet hat:

http://www.rnaworld.de/rnaworld/workunit.php?wuid=514108

3 Results und deines passt vermutlich nicht zu den beiden anderen.
Ja Twodee, das dem so ist, war mir schon bekannt, aber nicht was und wo genau der Unterschied ist! Die Ergebnissinhalte kann man ja aus diesen Seiten nicht auslesen.
Vor allem interressiert mich wieso Mein Rechner plötzlich was anderes berechnet hat wie die beiden anderen. Dürfte ja eigentlich nicht passieren. *noahnung*
 
Abbrüche und RAM-Bedarf bei den Teilen ist das eine. Als wirklich störend empfinde ich, daß bei einem Abbruch mit Fehlermeldung >cms... funktioniert nicht mehr< der betreffende Kern blockiert wird und nix neues anfängt zu rechnen. *kopfkratz Geht das nicht irgend anders zu lösen? BS 7HP64
 
Ja Twodee, das dem so ist, war mir schon bekannt, aber nicht was und wo genau der Unterschied ist! Die Ergebnissinhalte kann man ja aus diesen Seiten nicht auslesen.
Vor allem interressiert mich wieso Mein Rechner plötzlich was anderes berechnet hat wie die beiden anderen. Dürfte ja eigentlich nicht passieren. *noahnung*
Der Unterschied liegt im Result und das kann man nicht einfch per plain-text auf die Projekt-Seite/Wu-Report klatschen, vermutlich ist es ettliche KB groß. Es reicht aber, wenn es der Betreiber/WU-Validator weiß/feststellt. Das wie und warum wird wohl vermutlich auf deinen PC (stabil genug?) oder aber auf einen Fehler in der ClientApp zurück zu führen sein.
 
Der Unterschied liegt im Result und das kann man nicht einfch per plain-text auf die Projekt-Seite/Wu-Report klatschen, vermutlich ist es ettliche KB groß. Es reicht aber, wenn es der Betreiber/WU-Validator weiß/feststellt. Das wie und warum wird wohl vermutlich auf deinen PC (stabil genug?) oder aber auf einen Fehler in der ClientApp zurück zu führen sein.
Na ja, stabil unter den gegebenen Bedingungen unter Docking und QMC. Exit Status 0. Also kein Fehler den Boinc bzw die App feststellte .
 
Ist Docking und QMC ebenso speicherlastig wie die aktuellen mörder-csearch-wu's von rna? ;)
 
Hier eine cmc - Abbrecher (Error 195) auf einer Win7 64 bit Maschine:http://www.rnaworld.de/rnaworld/result.php?resultid=1293932
Dies ist wohl leider ein ganz banaler Rechenfehler, der hier auftrat. Die Ursache kenne ich nicht. Fakt ist, daß zwei andere Maschinen identische Ergebnisse lieferten. Ich fürchte, da hat Deine Kiste leider irgendein Bit verschluckt.

Ich frage mich wieso diese als invalid gekennzeichnet wurde?
Aus vermutlich demselben Grund, wie oben. Deine Maschine hat massiv Arbeitsspeicher und sollte eigentlich nicht die geringsten Probleme haben. Selbst nicht mit unseren aberwitzigsten "Kloppern". Bin deshalb etwas verwirrt...

Michael.
 
Das mit dem RAM verbrauch wird langsam haarig. Ich muss RNA auf einigen PCs abstellen.

"cmsearch needs 3814.70 MB RAM but only 3070.87 MB is available for use."

Bei einem Dualcore oder Qaudcore wird das ganze System lahm gelegt. :(
 
bei mir gehts noch, hab 8Gig und die 4 laufenden cmc brauchen zur zeit etwas über 6Gig.
Viel mehr darf es aber nicht werden ;)
 
Das mit dem RAM verbrauch wird langsam haarig. Ich muss RNA auf einigen PCs abstellen.

"cmsearch needs 3814.70 MB RAM but only 3070.87 MB is available for use."

Bei einem Dualcore oder Qaudcore wird das ganze System lahm gelegt. :(
Na da ist es doch gut, dass Du die dicken Dinger nicht bekommst.
yoyo
 
Warum gibts bei dem Projekt eigentlich so eklatante Unterschiede zwischen Run time
(sec) und CPU time(sec)? Insbesondere bei den dicken Dingern fällt das auf. Wir reden jetzt nicht über Pillepalle, sondern teilweise bis zu 50%. Weis da jemand ne Erklärung/Einstellung/Tipp für mich?
 
unterschiedliche organismen ;)

edit: puh, was für RAM-fressende Monster.
Die 8Gig sind voll und zusätzlich 3-irgentwas-Gig swappen fröhlich auf der platte rum. Und das obwohl nur gerade 3 Wus auf meinen Quad laufen.
also pro WU runde 4gig RAM.
 
Zuletzt bearbeitet:
Die Teile werden immer schlimmer. Über 6GB Ram für 1WU.:o
Und download teilweise über 170MB. Da ist mein 2000er DSL am kämpfen.

cu JagDoc
 
Nach dem ich mehrmals den Rechner neu starten musste, weil sich die Teile festgefressen haben; habe ich darauf keine Lust mehr darauf. (reicht schon zu, dass die externe Seagate Holz hackt, meine Systemfestplatten müssen da nicht mit einstimmen). Leider ist es nicht das einzige Projekt was sich so benimmt.
 
wann kommen checkpoints für die dinger?
Es ist teilweise nicht möglich (und nachträglich aus Aufwandsgründen übrigens auch dort wo es möglich wäre absolut nicht sinnvoll), die wissenschaftlichen Applikationen mit Checkpointing auszustatten. Trotzdem brauchen wir Möglichkeiten, unterbrochene Arbeit möglichst verlustfrei fortsetzen zu können - vor allem dann, wenn wir solche aufwändigen Dinge machen, wie bei RNA World. Ich will unseren Standpunkt dazu und unsere Lösungsansätze hier nochmal kurz erklären: RNA World wird in Zukunft ein ganzes Heer weiterer Applikationen integrieren. Kaum eine davon ist vom Entwickler dafür vorgesehen gewesen, Checkpoints rauszuschreiben. Und jede neue Version einer in RNA World laufenden Applikation müßte also von uns manuell nachgerüstet werden. Die Zeit können wir nicht investieren, da dies voraussetzen würde, daß wir bezahlte Mitarbeiter zur Verfügung hätten. Und wenn wir zukünftig solche bezahlen könnten, würde ich die zudem auf anderes ansetzen wollen. Also haben wir mal unseren Kopp benutzt und überlegt, ob es Alternativen gibt, die UNIVERSELL genutzt werden können. Da wäre der RAM-Dump auf HD: Unter Linux x86 haben wir diese Möglichkeit bereits letztes Jahr erfolgreich umsetzen können. Das ist aktuell aber nur eine Notlösung, denn unter Windows ist es uns nicht gelungen, dies zu implementieren. Also machen wir was anderes: Wir lassen in Zukunft RNA World in einer Virtual Machine (VM) laufen. Diese können wir sozusagen komplett sichern und das Schöne ist zudem, daß wir für beliebige Betriebssysteme nicht mehr eigene Clients kompilieren müssen, wie wir das jetzt machen, sondern die VM komplett als Linux x64 ausstatten werden. Dazu haben wir eine Kooperation mit dem CERN laufen, die sich auf dem letzten BOINC Workshop ergab, wo wir RNA World ja erstmals offiziell präsentierten. ;D Kurz: Etwas Geduld noch, dann wird auch das Problem mit dem Checkpointing zu meistern sein.

Nach dem ich mehrmals den Rechner neu starten musste, weil sich die Teile festgefressen haben; habe ich darauf keine Lust mehr darauf. (reicht schon zu, dass die externe Seagate Holz hackt, meine Systemfestplatten müssen da nicht mit einstimmen). Leider ist es nicht das einzige Projekt was sich so benimmt.
Wir haben eine Lösung für das Speicherproblem der Monster CMS-WUs gefunden, die es auch ermöglichen wird, daß die kleineren Systeme mit weniger RAM unter Windows x86 wieder voll einsteigen können. Es wird uns allerdings noch ein wenig Programmiereinsatz kosten, sodaß etwas Geduld gefragt ist. ;D Auch der Traffic sollte damit durch bessere Verteilung merklich reduziert werden.

Michael.

P.S.: Ich bin momentan in Indien, um mit unseren Kooperarionspartnern einiges zu klären. Da der Dschungel leider nicht durchgängig internetfähig ist, kann es wohl sein, daß ich bis Mitte April etwas unregelmäßiger auf Fragen und Probleme reagieren kann. Ich bitte da um Verständnis.
 
Zuletzt bearbeitet:
Hi Michael H.W. Weber

Finde ich aber toll, dass Du selbst in Indien an "Eure" cruncher denkst. ;D
 
Zurück
Oben Unten