15. Pentathlon 2024 - Jagdrennen (Milkyway@Home)

Bunker sind egal. Wir bleiben auf jeden Fall in der Gesamtwertung auf Platz 2. *clap* *attacke*
 
Neuzugang. *elch2**elch2*
I7-3770K. Und auch Ironman konnte zur Zusammenarbeit bewegt werden. *chatt*
Macht 2 WUs paralell mit je 4 Threads.
Auch ne Dampflok zieht einen Zug und bringt die Passagiere ans Ziel. Also: Alteisen ausgraben.

 
Zuletzt bearbeitet:
Ich habe bei beiden 8 Kernern auch 4er Bestückung führt zu einer akzeptablen Auslastung aber sie bleibt dennoch mist bei MW
 
Höre ich hier etwa einen Ruf nach mehr Power?

Bitte schön:

Anhang anzeigen 55444

4 x Opteron 6272 mit jeweils 16 Kernen bzw. Modulen.

Brachiale Power !!!! *attacke**attacke**attacke**attacke*



Doppelposting wurde automatisch zusammengeführt:

Edit:
Aktuell lutscht er ca. 580 Watt aus der Steckdose.
Sind das da drei normale N-Body Wus? Bekomme hier nur Orbit-Fitting obwohl beide eingestellt im Projekt *kopfkratz
Ja, seltsam.....

In der Aufgabenübersicht gibt es aber nur die "with Orbit-Fitting" *kopfkratz
Doppelposting wurde automatisch zusammengeführt:

Mensch, was ein Glück!

Der Server ist nicht nur fies laut, nein - er ist dafür wenigstens auch noch schön heiß. *chatt**oink*:P

Ich mach mal den FritzB - ist zwar kein Cuba Libre aber Bacardi Oakheart-Cola. ;D

Anhang anzeigen 55449
Bacardi Oakheart-Cola finde ich auch super
 
typisch P3DN, wenn der Tanker einmal Fahrt aufgenommen hat, kannst du auf der Bugwelle surfen ;D
Doppelposting wurde automatisch zusammengeführt:

Mit den ganzen ATI/AMD-Grakas würde unser Output bei MW brutal sein, da wäre es noch eng für TAAT geworden *buck*
 
Dann hätte ich auch meinen DP Cruncher mit den 4x Radeon VIIs mitrechnen lassen. ;)
 
Die »schwarze 0« greift um sich... Und wieso sind auch die »_1« und »_2« nur meldebereit? Server? Was ist los? :D

1716029008779.png
 
Automatisch fertig gemeldet werden die meist erst später. Bleiben sie auch wenn du selbst aktualisierst?
 
Bei mir läuft das Hochladen und Melden einwandfrei (arbeite nur mit minimalen Puffer), vielleicht Verbindungsprobleme oder ne Bunker Leiche in der Config?
 
Läuft bei mir auch problemlos - hab' gerade die ganzen "Nuller-WUs" aussortiert, nachdem die meisten Rechner deutlich zuviele WUs gezogen haben...
 
Mit den ganzen ATI/AMD-Grakas würde unser Output bei MW brutal sein, da wäre es noch eng für TAAT geworden *buck*

I wish Milkyway had the GPU app still. For you guys, it sadly wouldn't have been this close. Most of our team have very, very good GPUs for doing Milkyway specifically. I was doing over 20M PPD alone on my setup before the GPU app disappeared and others on my team were able to do 10M+ easily. I suspect TAAT would have been doing 50M+ PPD with the GPU app.

Monthly progression since 2007: Notice that section around 06-2022 till the end of the GPU app 06-2023.
2024-05-18 11_36_52-MilkyWay@home - team stats - TeAm AnandTech _ BOINCstats_BAM!.png

We did roughly 10B points per year that year (and that wasn't even running it full time 24/7)
 
I also have a system that is designed for this and ensures plenty of credits.(Threadripper 1950X, 4x Radeon VII, 1 CPU thread per WU + 4 WUs per GPU)

However, due to the hunger for energy and the waste heat, it normally only ran in a few races, but it still generated around 70 million credits. *oink*

Übersetzung per google translator. *oink*
 
I also have a system that is designed for this and ensures plenty of credits.(Threadripper 1950X, 4x Radeon VII, 1 CPU thread per WU + 4 WUs per GPU)

However, due to the hunger for energy and the waste heat, it normally only ran in a few races, but it still generated around 70 million credits. *oink*

Übersetzung per google translator. *oink*

I got two systems with 6x Nvidia Tesla P100s, AMD EPYC 7V12 that each do around 12M PPD.

and some other cards that do it well as well, but those were my two biggest producers.
 
I got two systems with 6x Nvidia Tesla P100s, AMD EPYC 7V12 that each do around 12M PPD.
Unfortunately I don't have any exact numbers anymore, but I assume that the last two WUs that remained in the history ran for around 30 seconds and 16 of them were finished at once. That would be around 10 million credits per day.

Übersetzung per google translator. *oink*
 
I got two systems with 6x Nvidia Tesla P100s, AMD EPYC 7V12 that each do around 12M PPD.
Unfortunately I don't have any exact numbers anymore, but I assume that the last two WUs that remained in the history ran for around 30 seconds and 16 of them were finished at once. That would be around 10 million credits per day.

Übersetzung per google translator. *oink*

Total 54M credits. I think you are right in that 4x Radeon VII can do around 2M PPD each so 10M PPD for the whole host seems about right.

For reference I was running 6x tasks on my P100s, but I don't remember the how quickly it returned the results.

One of my hosts: https://milkyway.cs.rpi.edu/milkyway/show_host_detail.php?hostid=923718

I ran the host with multiple instances because Milkyway would only send 600 tasks at a time and not send anymore until all 600 was done and reported. So I ran multiple instances to make sure the GPUs was always crunching and to allow multiple WUs to run in parallel.
 
The biggest problem was the no-load computing time at the end of the WU, which is why, given the short GPU computing time, one had to rely on several WUs per GPU to bridge the gap.


Übersetzung per google translator. *oink*
 
Milkyway@Home GPU was cool for AMD Excavator APUs (Bulldozer Gen4) with 1:2 ratio of FP64

My A12-9800 could do 0,5TFlopps FP64
 
*Auf die Uhr schau* Ist der Drops gelutscht oder kommt da noch was?
Gesamt-P3 hat SG sicher und wird auch nicht mehr besser dieses Jahr.
 
Ja, dürfte ziemlich sicher durch sein. Wenn es passt, dann lasse ich noch alle WU durchrechnen.
 
The biggest problem was the no-load computing time at the end of the WU, which is why, given the short GPU computing time, one had to rely on several WUs per GPU to bridge the gap.


Übersetzung per google translator. *oink*

That was an issue but so was the fact that you had to return ALL WUs before you could get new WUs. It's why running multiple tasks at the same time as well as multiple instances at the same time was the only way to ensure the GPUs stay crunching work 100% of the time.
 
Zurück
Oben Unten