Universe@Home

Hab gerade mal den Netzwerkzugriff abgeschaltet.
Sind ca 500KB upload.
 
Bei mir gibt der BM die realen 3:17 als Schätzung an. Fast schon unheimlich genau.

Oh, da haben sie's wohl geändert.

Tja, seit ein paar Tagen klappt die Zeitberechnung nicht mehr.
Ich bekomme für die V2 1:14h angezeigt, real laufen die aber nach wie vor ihre 3:20h
Das hat zur Folge, dass Universe immer 3x so viele WUs schickt, wie verarbeitet werden können.
Die laufen dann immer 1-2 Tage im Panik-Modus durch, dann macht das Projekt erstmal eine Weile Pause, weil ja WCG auch noch was rechnen soll, um auf die eingestellte Projektverteilung zu kommen. Dies wiederum führt zu WUs, deren Haltbarkeit bald überschritten ist. Und das hat natürlich wieder den Panik-Modus zur Folge.
Die 4 Tage Deadline finde ich nach wie vor zu kurz. Ich hab das Projekt jetzt erstmal auf No Work gestellt. Vielleicht hol ich ab und zu mal einen Schwung WUs und mach die Tür dann wieder zu.

Ich hab Universe nur auf dem einen Rechner, es kann also nicht daran lieben, dass ein anderer Rechner die Zeiten beeinflusst.

Edit: Oh wie nett, es gibt sogar Badges bei dem Projekt :)
 
Zuletzt bearbeitet:
Dazu noch richtig schöne, im Vergleich zu anderen Projekten.
 
Mit der neuen "Universe X-ray sources v2 v0.03" Anwendung wurden die Linuxlaufzeiten im Schnitt um den Faktor 2,5 verkürzt! So ist die Leistung unter Linux nun der unter Win ebenbürtig und sogar stellenweise etwas besser. Z.B. auf einem Athlon 5350 Win 8.1 ca. 17000 s, unter Linux sind es ca. 10000 s (zuvor ~26000 s).
Checkpoints funktionieren nun auch.
Die extrem hohen Uploads sind übrigens schon lange Geschichte. Nun sind Up,- und Download nur wenige kB groß.
 
cyrusNGC_224 schrieb:
So ist die Leistung unter Linux nun der unter Win ebenbürtig und sogar stellenweise etwas besser.
Wenn ich mir die x6 1090 anschaue, dann ist Linux jetzt beinahe doppelt so schnell als Win !
Das ist nicht sehr nett. ;D
Wann zieht Windows nach ??
 
Weiß nicht ob die das überhaupt so schnell vorhaben.
Hab jetzt auf dem Win 8.1. Athlon extra eine Linux VM angelegt, weil das wie gesagt fast der doppelt Durchsatz ist.
 
Mal ne blöde Frage: was wird hier gerechnet? Iwie konnte ich hierzu nix sachdienliches finden *noahnung*

Gruß,
Ritschie
 
Für so ein jungen Projekt haben die schon sehr viel und sehr detaillierte Beschreibungen parat [1], [2].

This proposal aims to create the first database of the simulated stellar content of the Universe,
from the earliest stars to the most exotic black hole binaries. This comprehensive stellar library will
be a world-wide scientific resource for astronomers, and an educational asset for the public. With
a state-of-the-art suite of computational tools, we can calculate the physical properties of individual
stars, evolve them in time, and track how they interact with each other as they age. With this library
of stellar populations that spans the known range of star formation histories and initial elemental
abundances, it is possible to tackle fundamental science questions that have been out of reach in
general relativity, astronomy, and cosmology. As a group wewill use this database to characterize the
population of supernova progenitor stars that have been used to discover the mysterious dark energy
that accelerates the expansion of the Universe; we can calculate how (if at all) binary evolution
facilitates the formation of ultra-luminous X-ray sources, and we can model the number and physical
properties of neutron stars and black holes that strongly emit gravitational waves that are at the
heart of research into gamma-ray bursts – the most energetic explosions known-to-date. The data
that we create can be mined not only to match current observations, but to predict how the sky
will appear to future astronomical observatories as new windows to the Universe open. Altogether,
this proposal will allow us to consolidate a strong and highly visible research group; an independent
computational center that trains a new cohort of highly educated students, and communicates with
the public via innovative science venues, and offer a fresh look at the Universe.

Also eine Datenbank wird erstellt, in der sämtliche Objekte im bekannten Universum abgebildet werden.
Neutronensterne, schwarze Löcher, Doppelsternsystem usw. Im Grunde wird das simuliert, anhand von Daten von Gravitationswellen und Röntgenstrahlung.
Und noch vieles mehr.


[1] http://iopscience.iop.org/0067-0049/174/1/223/pdf/0067-0049_174_1_223.pdf
[2] http://universeathome.pl/universe/universe.pdf
 
Also eine Datenbank wird erstellt, in der sämtliche Objekte im bekannten Universum abgebildet werden.
Neutronensterne, schwarze Löcher, Doppelsternsystem usw. Im Grunde wird das simuliert, anhand von Daten von Gravitationswellen und Röntgenstrahlung.
Und noch vieles mehr.
Hallo cyrus,

leider ist mein Englisch zu eingestaubt. Aber deine kurze Erklärung genügt mir. Vielen Dank dafür.

Gruß,
Ritschie
 
Universe.jpg

Das Projekt hat sich zum Ziel gemacht, eine erste Datenbank für den simulierten stellaren Inhalt des Universums zu erstellen, von den frühesten Sternen bis zu den exotischsten schwarzen Löchern. Als stellare Bibliothek soll sie eine weltweite wissenschaftliche Quelle für Astronomen und ein Lernvorteil für die Öffentlichkeit werden.
Mit neuesten Berechnungswerkzeugen können wir die physikalischen Eigenschaften von Sternen berechnen und wie sie sich zueinander verhalten, wenn sie altern. Fundamentale wissenschaftliche Fragen der Relativität, Astronomie und Kosmologie können anhand dieser Bibliothek der Sternenpopulation angepackt werden. Als Gruppe werden wir die Datenbank zur Charakterisierung der Population von Supernova-Vorgängern nutzen, die zur Entdeckung der mysteriösen Dunklen Energie führten, die die Expansion des Universums beschleunigt. Wir können berechnen wie (und ob) die binäre Evolution die Formation von ultraleuchtenden Röntgen-Quellen erleichtert, und wir können die Anzahl der physikalischen Eigenschaften von Neutronensternen und schwarzen Löchern modellieren, die starke Gravitationswellen emittieren. Gravitationswellen sind das Herz zur Erforschung von Gammablitzen - der größten energetischen Explosion, die bis heute bekannt ist.
Weiterführende ausführlichere Projektbeschreibungen (in Englisch) kann man in dieser
PDF-Datei erfahren.

Badges-System:
Badges_universe.jpg



Quelle: http://wiki.bc-team.org/index.php?title=Universe@Home


Universe@home http://universeathome.pl/universe/index.php
Anwendungen: http://universeathome.pl/universe/apps.php
cyrusNGC_224 schrieb:
Die extrem hohen Uploads sind übrigens schon lange Geschichte. Nun sind Up,- und Download nur wenige kB groß.
Die Linuxanwendung ist auf einem Phenom2 x6 1090 zur Zeit beinahe doppelt so fix als die Winversion.
Linux: ca. 6600 sec
Win: ca. 12200 sec
Ram unter Win : ca. 4,5 MB
Credits je Wu: 222,22




Universe@Home test project http://universeathometest.info/universe/
 
Zuletzt bearbeitet:
@ Pollux: vielen Dank für den Link!

Gruß,
Ritschie
 
Kann mir mal jemand erklären warum ein Opteron 6380 (16Kerne, 2,5 Ghz Takt) ca 25% pro WU schneller ist als ein Opteron 6344 (12Kerne, 2,6 Ghz Takt).
6380: http://universeathome.pl/universe/result.php?resultid=1726723 5,916.06 sec
6344: http://universeathome.pl/universe/result.php?resultid=1879587 7,919.05 sec

Sind die WU's so unterschiedlich, was ich bisher bei ca 1500 WUs auf meinem Opteron nicht feststellen konnte, oder gibt es etwa eine "schnellere" App? Oder kann man eventuell die Opteronen übertakten? Die Gleitkommazahlenwerte der Rechner des Herrn Brobecki sind alle ca 12% höher als die von meinem Rechner. 2200 zu 2500
 
Zuletzt bearbeitet:
Vielleicht hat er schnelleren Speicher verbaut.
 
Ich habe 2x 32 GB Kingston ValueRAM DIMM, 8x8GB Module mit ECC, DDR3-1600 CL11 verbaut. Kann der Chipsatz/Prozessor aus der zeit mit schnelleren Rams umgehen? Wenn ja, wieviel Einfluss hat die Geschwindigkeit des Rams auf die Rechenzeit der WUs?
 
Zuletzt bearbeitet:
Bei Universe nicht sonderlich viel.
 
Sehe ich genauso
 
Der Brobecki hat sowieso unglaubliche Kisten im Park. Und ja, es gibt Boards, mit denen man die Opteron übertakten kann.
Anhand der höheren Benchwerte muss das auch der Fall sein.

--- Update ---

Ach, was mir noch auffällt, er hat da überall Gentoo Linux drauf laufen. Da wird bekanntlich jedes Paket im Quellcode geliefert und muss noch kompiliert werden, was mit den optimalen Kompilerflags für eine spezifische Arch tatsächlich einige % Vorteil bringen könnte.
Dagegen spricht, dass die eigentlich Universe App eben nicht neu kompiliert werden kann (außer er hat den Quellcode bekommen).
 
Weiß zufällig jemand, ob die Windows-App auch irgendwann optimiert wird? ;)
 
Wäre eine schöne Sache aber naja man kann nicht alles haben :)
 
Weiß zufällig jemand, ob die Windows-App auch irgendwann optimiert wird? ;)
Ja, das wurde seitens der Entwickler schon in Angriff genommen. Aber aus irgend einem Grund bekommen die die Win App nicht an die Laufzeiten der Linux und Mac Apps angeglichen. Und das ist bei wirklich jedem Unterprojekt der Fall, bisher.
Oft liegen die Faktor 2 auseinander.
(Athlon 5350 Linux 3:46h; Win 8.1 6:11h)
http://universeathome.pl/universe/forum_thread.php?id=10#80
 
Zurück
Oben Unten