Allgemeiner Plauderchat über das Thema DC Part IV

Die anderen kochen auch nur mit Strom!
 
P1 wäre sowieso utopisch. Wie ich vor 2 oder 3 Jahren schon sagte: Lieber richtig um Plätze kämpfen! *attacke*
Würden andere bei Fußball, Motorsport oder sonstwo gar nicht erst antreten, könnte man sich jeden Wettbewerb sparen.
 
Nun wittme ich mich Yoyo@home :) Also lasse Milkyway auslaufen und gleichzeitig rechnet er schon für Yoyo.
Für den Boincstats Run.
Die Nvidia braucht allerdings keinen Extra GPU Treiber für Yoyo, kann ich einfach anmelden und so laufen lassen. Das oben genannte ist für die AMD/ATI Karten.
Doppelposting wurde automatisch zusammengeführt:

Ich habe die entsprechende News im Forum gerade gefunden mit Link zur Projektseite, demnach wird nur Intel und AMD unterstützt. Okay.
Doppelposting wurde automatisch zusammengeführt:

Somit lasse ich Nvidia weiterhin Milkyway laufen und die CPU macht dann Yoyo! :D
Doppelposting wurde automatisch zusammengeführt:

Auf der AMD Grafikkarte meldet sich ständig der Grafikkartentreiber wegen einem Fehler, ich habe die Meldung nun auf Ignorieren gesetzt, die Berechnungen laufen trotzdem durch. In Yoyo werden automatisch nur die Projekte für die GPU ausgesucht.
Doppelposting wurde automatisch zusammengeführt:

Funktioniert mit der AMD Karte und dem BOINC GPU Programm nicht richtig. Nachdem er zwei Bereichnungen durchgeführt hat, meldet BOINC ständig fehler, kann also keine neuen WUs dazu herunterladen.
Doppelposting wurde automatisch zusammengeführt:

Nun nach dem ständigen Reset, neu herunter laden und wieder einspielen der GPU Dateien im Yoyo Verzeichnis rechnet er wieder. Scheint noch nicht richtig rund zu laufen.
Doppelposting wurde automatisch zusammengeführt:

Wenn er auf der AMD GPU Rechnet, dann ausgesprochen schnell! Also alle 50-60 Sekunden ist eine WU fertig. Also es lohnt sich schon.
Doppelposting wurde automatisch zusammengeführt:

Nach den 4 neuen WUs ist leider wieder Schluss, danach lässt sich boinc oder yoyo nicht mehr zu neue WUs überreden. Hab wieder resettet, nur CPU, dann läufts.
 
Zuletzt bearbeitet:
Ich habe für heute mal ne RTX4080 von einem aufgerüsteten System für einen Stabilitätstest in den "do you feel lucky?" Primegrid Ring geworfen. Mal schauen wie lange die für eine WU benötigt und wie warm der Wakü Kreislauf wird. *oink*
 
Also die AMD Karte beweist in BOINC das sie viel kann und die Nvidia durchaus schlagen kann. Ich denke so wie oft im Leben müssen diese Dinge für die jeweilige Hardware optimiert sein, dann läuft es erste Sahne.
 
Ja, Nummern Projekte wie Primegrid laufen traditionell auf den Geforce Karten deutlich besser, wobei es z.B. bei Numberfields nochmal erheblich stärker ausfällt weil die Radeons da gern am einer schlechten GPU Nutzung durch die WU verhungern.

Bei Einstein waren die Radeons mal im Vorteil weil das Projekt sehr stark auf den VRAM Controller geht. Da hatten die Radeons früher einfach mehr Speicherbandbreite als die Geforce Karten mit dem damalige schmalen Speicherinterface aber das hat sich ja inzwischen durch AMDs heutigen Ansatz mit dem Infinity Cache umgekehrt. Die GPU selbst wird von dem Projekt spätestens mit der gleichzeitigen Berechnung mehrerer Workunits ziemlkich gut genutzt. Eine Ausnahme bilden hier allerdings die "Gravitational Wave search" WUs die eher CPU lastig sind und von der GPU eher nur untertsützt werden.

Milkyway lebt von der Performance bei doppelter Genauigkeit. Auch hier waren die Radeons traditionell im Vorteil weil sie einfach einenn geringeren Teiler im Vergleich zur Leistung bei einfacher Genauigkeit nutzen. Auch gab es bei AMD immer wieder Desktop Modelle die einen besonders kleinen Teiler hatten und dort entsprechend Performant laufen. Die Klassiker sind hier die Radeon VII, Modelle mit der Tahiti GPU (HD79xx, R9 280(X) und natürlich auch die GPU der Bristol Ridge APUs wie beispielsweise dem A12-9800.
 
Für BoincFormula bin ich nun auch Registriert worden.
Doppelposting wurde automatisch zusammengeführt:

ich habe in app_config.xml 2 WUs sowohl auf der AMD, als auch auf der Nvidia unter Milkyway gleichzeitig rechnen lassen. Bringt nur auf der AMD Karte etwas, auf der Nvidia bringt das nichts.
Also auf der AMD Karte machen 2 WUs gleichzeitig so viel wie die Nvidia für 1 WU braucht = 1 Min. Die Nvidia braucht für 2 WUs über 2 Minuten, also doppelt so langsam.
 
Zuletzt bearbeitet:
Nachdem ich festgestellt habe, dass die Nvidia doppelt so langsam ist in Milkyway, lasse ich diese lieber in Asteroids rechnen, wie sind denn da eure Erfahrungen in Bezug auf Grafikkarten?
 
Da habe ich keine aktuellen Erfahrungen aber früher hielt sich die Credit Ausbeute im Vergleich zu den CPU WUs meiner Erinnerung nach in Grenzen. Vielleicht ein ähnliches Verhalten wie bei den "Gravitational Wave search" WUs von Einstein?
Die "Gamma-ray pulsar binary search #1" WUs von Einstein liefen meiner Erinnerung hingegen recht gut auf den letzten beiden Geforce Generationen, allerdings sollte man das Projekt dann so konfigurieren das mehrere WUs parallel auf der GPU laufen.
 
Wenn ich 1 Instanz unter Asteroids laufen lasse, dann zeigt GPU Z 100% Auslastung an, sobald ich 2 Instanzen nehme, also 2 WUs gleichzeitig für die Nvidia, dann zeigt er nur noch 99%Auslastung an.
Meinst Du mit mehrere eher bei der Einstein oder auch bei Asteroids?
Hm... also ich lasse lieber 1 Instanz in Asteroids laufen. Ab 2 fängt er auf der Karte an zu spinnen.
 
Das problem ist das ich für Geforce Karten nicht unbedingt der passende Ansprechpartner bin da ich selbst nur passiv gekühlte 1030er für die Bildausgabe habe. Aktuell rechnet zwar auch eine 4080 aber die nur vorübergehend da es lediglich ein Belastungstest für die Karte des aufgerüsteten Rechners ist.

Das schnellste was ich derzeit habe ist eine wassergekühlte RX 6900XT.
Speziell fürs GPU Crunchen sind dann noch ein System mit 4x Radeon VII (Milkyway) und einer mit 4x Radeon Pro Duo (8x Fiji GPU, Einstein) da die inzwischen auch schon in die Jahre gekommen sind und vor allem zusammen eine enorme Abwärme produzieren.
Doppelposting wurde automatisch zusammengeführt:

Ich weiß gerade nicht wie weit die Geforce Karten hier inzwischen verbreitet sind aber in Bezug auf die riesigen "do you feel lucky?" WUs von Primegrid habe ich inzwischen ein paar Beispiele für die 4080. Die lief da in ca. 9 Stunden durch und es reicht eine WU um die Karte auszulasten. Meine Vega64 Referenz brauchte dafür meiner Erinnerung nach gute 3 Tage.
 
Zuletzt bearbeitet:
Ich wollte unbedingt eine Spielegrafikkarte haben, da fingen die Einsteigerkarten schon bei 500-600 Euro an... (Ich dachte die würden bei 200 Euro anfangen... aber da bin ich nun 6 Jahre nicht mehr im Bilde der aktuellen Preise ) da dachte ich mir, für ein wenig mehr Geld erhalte ich auch eine Aktuelle Karte... und so habe ich mir die Aktuellen geholt. :D Ansonsten hätte ich auch schon fast eine Nvidia 3060 geholt für fast das selbe Geld. Für 100 Euro mehr habe ich also die 4070 erhalten. Für nochmals 200 Euro mehr die AMD 7900 XTX, hab mir die dann zusammen geholt. Also ja ist eine hohe investition gewesen, die ein riesen großes Loch im Geldbeutel hinterlassen haben.
Jedoch bin ich dennoch sehr zufrieden. Ich bemerke einfach besonders in Windows 10, dass die Grafikkarten für einen gehörigen Schub sorgen, mehr als ich erwartet habe, da ich eigentlich gedacht habe, dass Gerade der Desktop für die meisten Systeme eigentlich ausgereizt sei.
Ja nun kann ich mein Master of Orion Remake in 3D und in höchster Qualität spielen, davor musste ich die niedrigsten Einstellungen benutzen und es Ruckelte immer noch auf einer Radeon 460 :D

Also die Abwärme mit den 2 PC's sind wirklich enorm hoch, ich muss seit dem zwangsläufig das Fenster offen lassen.
Also sobald es anfängt wärmer zu werden, Frühling, Sommer, kann ich sicherlich nicht beide PC's laufen lassen. Im Sommer vielleicht noch nicht einmal 1 PC. Im Winter ist es ja noch recht kühl, jedoch dennoch sehr warm, trotz Fenster.

Ich bin was die GPU's angeht absoluter Neuling. Auch das mit der app_config,xml. Dazu habe ich hier im Forum ein paar Themen gefunden und erst einmal geschaut wie die Datei funktioniert, nach ein paar Gehversuche denke ich das ich das ein wenig herausgefunden habe.

Meine beiden Mainboards könnten ganze 3 Grafikkarten verwalten, aber mit den beiden und den CPUs habe ich schon 1000 Watt auf der Smartmeter Anzeige und mit noch mehr Grafikkarten hätte ich sicherlich eine Sauna.
 
Die Preise sind der Grund, warum ich nur noch GTX750Ti und GT1030 als GPU melden kann.
Für eine halbwegs ordentliche GPU 800-1000€ oder für High-End gleich 2000€ ist mir einfach zu fett.
Ich befinde mich im GPU-Streik, bis die Hersteller wieder zu sich kommen. *glaubses*
 
@Rekrut
Das ist bei mir noch eine etwas andere Hausnummer.
Die beiden GPU Cruncher sind bei Vollast auf den GPUs jeweils mit ca. 1600W dabei. ;)
 
Ich möchte ehrlich gesagt nicht mehr als 2 Computer für Boind und FAH laufen lassen, dass ist für mich die maximale Grenze. Diese sollten dann möglichst gut ausgerüstet sein. Allerdings nicht so, dass ich jedes Jahr aufrüste, also meine zwei Ryzen und jetzt meine Grafikkarten werden nun ein wenig halten. Für die Projekte und dafür das diese Kostenlos unterstützt werden ist es meiner Meinung nach gut genug.
Letztendlich ist es auch unsere langjährige gemeinschaft, die ich ja mit euch zusammen ebenfalls Jahrelang kennen und da freue ich mich nicht nur über die Projekte, sondern auch darüber das Wir so viele Jahre hier zusammenhalten.
 
Ach das sind bei mir eher Relikte aus meiner vergangenen DC und PC Bastel Wut. :D
Um alles laufen zu lassen waren mir idR. die Probleme mit der Wärmeabfuhr und der Stromhunger an sich einfach zu groß.
Mal schauen wie sich das mit dem Häuschen entwickelt denn da eröffnen sich wieder ganz neue Möglichkeiten. *buck*
 
Mal etwas anderes, nun wollte ich ja wegen Boincstats in Yoyo mitmachen, jedoch ohne GPU und habe dort einfach für die CPUs alle Projekte angelassen, da ich dachte, bei den CPUs ist es ja egal was da läuft... nun konnte ich mich bei Boincstats endlich wieder einloggen und sehe, dass die nur die Queens akzeptieren, ist das so?
Doppelposting wurde automatisch zusammengeführt:

Ich bekomme keine Milkyway GPUs für die AMD Karte mehr. Vielleicht alle weggeknuspert. :D
Doppelposting wurde automatisch zusammengeführt:

Ich möchte am liebsten wieder für Folding@Home rechnen, dass ist vom Gefühl her entspannter. Dort machen zwar von P3D nicht mehr so viele mit, vielleicht wegen den ganzen Races und Statistiken, wo Wir praktisch alle hinterher rennen. Aber Folding at home bietet ja im Grunde genommen auch eine Statistik und mache auf einem Schlag für alle möglichen Projekte mit, die mit der Biologie zu tun haben, für GPU und CPU gleichermaßen und vor allem auch für P3D.

Ich lasse alles für Folding at Home laufen.
 
Zuletzt bearbeitet:
Nachdem ich festgestellt habe, dass die Nvidia doppelt so langsam ist in Milkyway, lasse ich diese lieber in Asteroids rechnen, wie sind denn da eure Erfahrungen in Bezug auf Grafikkarten?
Milkyway ist sehr speziell, da muss die Karte viel DoublePrecision-Power liefern.

Wenn ich 1 Instanz unter Asteroids laufen lasse, dann zeigt GPU Z 100% Auslastung an, sobald ich 2 Instanzen nehme, also 2 WUs gleichzeitig für die Nvidia, dann zeigt er nur noch 99%Auslastung an.
Meinst Du mit mehrere eher bei der Einstein oder auch bei Asteroids?
Hm... also ich lasse lieber 1 Instanz in Asteroids laufen. Ab 2 fängt er auf der Karte an zu spinnen.
Die Auslastung allein sagt noch nicht viel aus. So eine GPU hat ja Tausende von Recheneinheiten, die wird man nie alle zu 100% auslasten können. Darum bringen mehrere WUs parallel trotzdem oft Vorteile, auch wenn sich an der "Auslastung" im Grunde nicht viel ändert. Bei Einstein laufen 10% der Berechnung auf der CPU. Je schneller eine GPU ist, desto mehr solcher Pausen hätte die GPU. Also laufen bei mir auf der AMD-Karte immer 4 Einsteine parallel. Bei Nvidia lohnt sich aber mehr als 2 WUs nicht mehr und selbst da sind es nur wenige % Gewinn.
Asteroids läuft auf der GPU in der Regel nicht besser als auf einer CPU aus dem gleichen Herstellungszeitraum und Preisbereich. In einem Race kann man alles rechnen lassen, was da ist - aber bei 24/7 nehm ich da nur die CPU.

sehe, dass die nur die Queens akzeptieren, ist das so?
Wenn das da so steht, dann wird das wohl so sein.
 
Ja die Milkyway Performance hängt eben massiv von der Berechnungsleistung bei dolppelter Genauigkeit (DP) ab, fürs Zocken reicht die einfache (SP) und dem entsprechend sind die Desktop GPUs idR. aufgestellt um nicht mit den teuren Compute Karten zu konkurrieren.

Wenn ich mich richtig erinnere war das DP-SP Verhältnis bei nvidia traditionell bei 1:32 und bei AMD 1:16.
Die Tahiti Desktop Karten kamen auf 1:8 und die VII auf 1:4. Die IGP des Bristol Ridge besitzt sogar ein Verhältnis von 1:2, was sonst eher professionellen Compute Karten vorbehalten ist. Darum sind die Modelle auf dem Gebiet auch so stark und zeigen vielen deutlich jüngeren und sonst leistungsfähigeren GPUs wo der Hammer hängt.
Doppelposting wurde automatisch zusammengeführt:

Die Auslastung allein sagt noch nicht viel aus. So eine GPU hat ja Tausende von Recheneinheiten, die wird man nie alle zu 100% auslasten können.
Das sehe ich vor allem bei meiner Vega64 teilst extrem.
Wenn ich mich recht erinnere war beispielsweise bei Numberfields die GPU Auslastung zwar bei annähernd 100%, die GPU selbst taktete aber mit fast 1,7 GHz und zog dennoch nur gute 100W, weshalb sie auch so hoch takten konnte. Wie gesagt, das ist ne Vega64 Referenz @ Standard.
Die WUs nutzen die Hardware also höchst ineffizient.
Bei Projekten die Einstein rauscht der Takt recht schnell runter in den Bereich von ca. 1,3GHz weil die Karte ins temperatur- oder Powerlimit rauscht.

Bei Einstein laufen 10% der Berechnung auf der CPU. Je schneller eine GPU ist, desto mehr solcher Pausen hätte die GPU. Also laufen bei mir auf der AMD-Karte immer 4 Einsteine parallel. Bei Nvidia lohnt sich aber mehr als 2 WUs nicht mehr und selbst da sind es nur wenige % Gewinn.
Ein Knackpunkt ist bei einigen WUs aber auch eine Segmentierung der WU selbst. Wenn ich mich recht erinnere sind die Milkyway WUs beispielsweise in 5 Teile aufgeteilt (je ca. 20%) zwischen denen es einen CPU lastigen Bereich gibt. Je schneller die GPU mit den GPU lastigen Bereich durch ist und je langsamer der CPU Kern ist desto stärker wirkt sich der Zwischenbereich als Bremse für die WU Laufzeit aus. Hier wird dann auch der Versatz zwischen den WU Fortschritten für die Laufzeit um so wichtiger damitim Idealfall 1-2 WUs im GPU lastigen Bereich sind wenn die anderen 1-2 WUs gerade im CPU lastigen Bereich hocken.
Bei Milkyway kommt bei den flotten DP Karten wie der Radeon VII aber auch recht schnell der Punkt wo schnellere Karten nicht mehr viel bringen weil die WU Laufzeit einfach zu kurz wird. Die GPU lastigen Abschnitte laufen dann nur noch wenige Sekunden und da man nicht unbegrenzt viele WUs parallel laufen lassen kann verschlechtert sich die GPU Auslastung.


Worauf ich bei einem Mix von CPU und GPU WUs aber recht genau achten würde ist die Laufzeit der GPU WUs denn vor allem beim Einsatz von SMT hatte ich dann gern mal mit dem Problem zu kämpfen das gut optimierte CPU WUs den GPU WUs auf dem zweiten Thread des Kerns ganz einfach die CPU Laufzeit wegfraßen und sie damit ausbremsten.
Es ist in dem Fall also ratsam der GPU WU einen ganzen Kern/Thread zu reservieren oder wenn das nicht reicht SMT abzuschalten damit diese den Kern für sich hat.
Eine richtig schlechte Kombi war da meiner Erinnerung nach bei meinen Radeons z.B. Asteroids auf der CPU und Einstein auf der GPU. Da half dann nur noch SMT abzuschalten damit die GPU WU performant lief.
Das war der Hauptgrund für die Entstehung meiner GPU Cruncher. Zu viel Ärger im Mix Betrieb.
 
Zuletzt bearbeitet:
Davon gaes mehrere Projekte die sich so massiv auswirkten.
Der Takt war da weniger das Problem sondern vielmehr dass die WUs offenbar so gut optimiert sind das kaum CPU Laufzeit für den zweiten Thread übrig bleibt, was natürlich bei einem Lückenfüller wie SMT schlecht ist. Mit SMT off läuft es dann weil sich die beiden Projekte nicht mehr gegenseitig behindert da jedes einen Kern für sich hat. Offenbar haben die GPU WUs bei SMT eine geringere Prio als die CPU WUs und dürfen dann warten bis etwas Laufzeit frei wird.
Meiner Erfahrung nach war nahezu jedes Projekt dessen WU Laufzeit sich bei Aktivierung von SMT praktisch verdoppelt und es damit faktisch nichts bringt ein potentieller Kandidat dafür.
 
Ahhh sehr guter Hinweis, ich habe nun SMT = off und siehe da, es funktioniert nun mit 14 Kerne und gleichzeitig mit der GPU wunderbar!
 
Der Takt war da weniger das Problem
Bei Einstein ist der Takt definitiv das Problem. Wenn ich mehr PPT gebe, taktet die CPU etwas höher und Einstein rennt deutlich schneller, ohne dass ich an der WU-Verteilung irgendwas geändert habe.
Mit 10xAstro, 18x TN-Grid und 4xEinstein habe ich für mich das Optimum gefunden.
 
Wenn die CPU WU auf dem einen Thread des Kerns so viel CPU Laufzeit wegfrißt das für die GPU kaum was übrig bleibt kannst du takten wie ein Weltweister, es wird dennoch nicht viel bringen.
Wenn du aber bei einem 16 Kerner nur 10 Astro WUs laufen hast dann bleiben immernoch mindestens 6 Kerne für genügsamere WUs übrig (sofern das auf TN Grid zutrifft) die den 4 Einstein GPU WUs genug Freiraum lassen.
Das dürfte sich dann z.B. auch in sehr unterschiedlichen Laufzeiten der CPU WUs äußern.
 
Ich habe mich doch nochmal anders entschieden und Einstein@home ausprobiert.
Gleich für beide Karten 10 WUs gleichzeitig berechnen lassen. Je mehr ich zuordne, umso effektiver wird es am ende für jede einzelne WU. Mehr WUs verkraftet die Nvidia wegen den 16 GB RAM nicht, die AMD könnte noch ein paar vertragen, hat ja 24 GB RAM. Aber ich denke bei 10 Stück ist auch schon okay.
Ich habe jetzt nur bei der AMD geguckt, bei einer WU waren es 4 Minuten und bei 8 WUs war es bei einer 10 Minuten, also eigentlich reduziert sich am ende die Zeit erheblich.
 
Zurück
Oben Unten