Allgemeiner Plauderchat über das Thema DC Part IV

Hmm, die Sapphire Nitro+ Radeon RX 580 8G (11265-01-20G) von koschi schrottet jede F@H WU, während die MSI Radeon RX 580 Armor 4G von Cashran, schon 10% durch hat...
Fehlermeldung: FahCore returned: BAD_WORK_UNIT (114 = 0x72)

Erstmal die BOINC TestWUs durchkauen und dann werde ich es nochmal versuchen
 
Ich habe die Version 22.3.1. Habe eben mal zur Probe 11 WUs mit 2 parallel auf der RX 5700XT gerechnet, dauerten jeweils 420s bis 430s (7 bis 7:10min) bei 180W PPT. Die einzelne war nach 4:15min durch. Alle waren erfolgreich.
Danke für den Test! Dann habe ich mal einen Grund, den Treiber zu aktualisieren
 
Auch bei Collatz (nach Verwendung der bekannten Optimierungswerte) verschrottet die Sapphire Nitro+ Radeon RX 580 8G ihre WUs :(
Da Collatz die WUs nicht lange in ihrere DB beibehält, kann ich leider nicht nachvollziehen ob es am neuen System liegt oder die GPU bereits vorher fehlerhafte WUs produziert hat.
Werde sie erstmal wieder in Sys53 einbauen und schauen was da passiert. Durch denn schon erkannten Fehler des zweiten 8GB RAM Moduls (bisher nur bei XMP@2400MHz) möchte ich Ausschließen das es am System RAM liegt, auch wenn die andere RX580 ihre WUs fehlerfrei abliefert.
Dabei kann ich auch einfach mal den Platz der GPUs tauschen, um zu schauen was dann passiert.
 
Also mit Verwendung der bekannten Optimierungswerte verschrottet die Sapphire Nitro+ Radeon RX 580 8G ihre WUs, ohne braucht sie ~1550s pro WU
Die zweite MSI Radeon RX 580 Armor 4G knuspert mit Optimierung die WUs in ~770s weg
Also entweder was mit einer app_config basteln -> Aufwand, muss gepflegt werden
Oder doch einfach eine separate Instanz für die Nitro -> mittlerweile schnell gemacht, auch ohne Script

Irgendwie hat die Nitro trotzdem Probleme, den Power geht nicht über 85W, bei einem PowerCap von 122W (Ist mir durchaus recht, dann wird das Sys nicht so warm) und an Folding@Home ist nicht zu denken

Ich lass es erstmal so...
 
Zuletzt bearbeitet:
Ich bin gerade am überlegen ob ich mir vor dem penta noch einen schmalen Schrank baue in dem ich die beiden GPU Cruncher und deren Radiatoren unterbringen kann. Die Dinger stehen irgendwie zu oft im Weg. *kopfkratz
 
Milkyway leidet irgendwie immer noch unter massiver Überlastung. Fast alles geht ins Pending.
 
Ja, mein 3950X hat 10000 nbody WUs im Pending (also nicht die separation Dinger, die auf der VII durchrauschen). Die werden aktuell noch gar an einen zweiten Rechner rausgesendet.
 
Wißt ihr ob man 2 DisplayPort KVM Switches in Reihe betreiben kann um an einem Port des ersten zwischen 2 Rechnern umschalten zu können?
 
manuell über taster am kvm sollte das funktionieren, aber ehrlicher weise noch nie ausprobiert
 
Da die Dinger nicht gerade billig sind wäre das schon ganz gut es schon vor dem Kauf abschätzen zu können.

Vorhanden ist bis jetzt ein ATEN CS1924.
An Port 1 und 2 hängen die beiden kleinen CPU Cruncher, an Port 3 einer der GPU Cruncher und Port 4 ist für einen externen Rechner da. Dort hatte ich überlegt einen ATEN CS782DP oder CS1922 im geplanten Zusatzschrank anzuschließen um dort zwischen "Jack" und dem anderen GPU Cruncher umschalten zu können.
 
Die in der FAQ genannte Seite http://www.aten.com.tw/data/quick_finder/kvm_to_kvm/kvm_to_kvm.htm geht nicht mehr.
Aber müssen es die 4k Versionen sein?
Wenn ich jedoch beim CS19208 lese "Kaskadierbar bis zu zwei Ebenen – Steuerung von bis zu 128 Computern" ist es scheinbar schon möglich, aber vom Hersteller bei den "kleinen" Schreibtisch KVMs bisher nicht als nötig erachtet worden zu testen/anzubieten/unterstützen.
Würde es versuchen und ggf. vom 14 Tage Rückgaberecht Gebrauch machen oder eine alternative Lösung suchen. Persönlich versuche ich nur noch über IP/Software die Systeme zu steuern, mit den daraus folgenden Einschränkungen. Ist halt auch die Frage wie oft du auf HW naher Ebene (BIOS und Co) die Systeme bedienen musst.
 
Da die Puffer Batterie des einen oder anderen Crunchers schlapp macht, es verdammt aufwändig ist das System so weit zu zerlegen das man zu Wechseln ran kommt und die Dinger nicht ständig am Netz hängen ist es durchaus wichtig.
Und ja, es muss die 4K Version sein da ein 4K Display genutzt wird die Sensorendaten bei den 4/8 GPUs der GPU Cruncher bzw. 128 aktive WUs bei "Jack" auf dem Desktop jede Menge Platz fressen.
 
Das Problem mit den Pufferbatterien habe ich manchmal mit dem Lötkolben behoben, ggf. interessant https://www.tindie.com/products/rossgk/2032-coin-cell-surrogate/
Aber wenn du auch alles auf einen Blick haben willst, gibt es leider nicht viele Alternativen. Der CS19208 ist mit seinen ~950€ entsprechend teuer, bietet aber Platz für noch mehr Cruncher
 
Na ja, der ist für mein Vorhaben auch einfach zu viel des Guten.
Bei dem Problem mit der Pufferbatterie gehe ich eher dazu über den Batteriesockel auf die inzwischen oft genug verbaute Abdeckung des IO Anschlussfeldes zu verlegen. Ein erster Kandidat war ein µATX und ein ITX Board bei dem die Pufferbatterie an einem Stecker gelötet war. Das ging dann relativ einfach indem man die alte Batterie abschneidet, die drähte verlängert, am Ende einen Batteriesockel anlötet und das dann einfach mit doppelseitigen Klebeband auf die Abdeckung klebt. Schon hat man eine leicht zugängliche, wechselbare Pufferbatterie. *oink*
Bei den gesockelten bräuchte ich dann erstmal einen vernünftigen Dummy den ich in den orginalen Sockel drücken kann. Die Bastellösung aus dem Link sagt mir aber so garnicht zu. ^^
 
Aus damaliger Erfahrung mit meinem 16 Port KVM kann ich nur sagen, dass sich das auch auf 16x16 erweitern ließ, aber nur mit den gleichen Modellen und der beigefügten Brücke.
 
Gibt gerade neue climateprediction-WUs nach langer Durststrecke. Vorhin noch 2800, nun nur noch 2000 WUs bereit zum Senden. Also beeilen, wer das rechnen und noch was vorhalten möchte. Nur als x86-Linux-Anwendung.

Bei SiDock hat ein neues Target 13: corona_PLpro_v3 begonnen. Ich hab es gemerkt, weil der Server grad wieder in die Knie geht, weil es kurzlaufende WUs sind.

Oder TSBT bereiten sich auf den nächsten Sprint vor?!
 
Zuletzt bearbeitet:
Ah, deshalb die Uploadprobleme...
 
Heute hatte ich den Korpus des Schrankes gebaut (40cm breit, 60cm tief, 202cm hoch, massive Rückwand für Steifigkeit) und mir beim Werkeln die Geschichte mit dem KVM Switch nochmal durch den Kopf gehen lassen.

Ich denke ich lasse das ganz einfach sein und nutze das Teil nur zur Aufbewahrung der Rechner und der Radiatoren.
Da der Abtransort der Abwärme jetzt keine Rolle mehr spielt kann ich jetzt auch ein viertes Fach einbauen.
Wenn ich die Rechenknechte betreiben will kann ich sie auch einfach rausnehmen und davor aufbauen, was mit Sicherheit auch deutlich besser für die Kühlung ist.
 
zu #946
thorsam bot mir die beiden Odroid N2 vom p3d-cluster für 0 € an. Er hat Wort gehalten !
Das Päckchen wurde mir heute von der Post/DHL überreicht.

Ich werde die Teile in Ehren halten und stets darauf achten , daß den Beiden immer ein wenig WU-Futter zu ihrem Vergnügen zur Verfügung steht. Was sie ansonsten noch brauchen , werde ich dabei sehen.

Jetzt muß ich das Päckchen doch schon heute öffnen. Eigentlich wollte ich das erst morgen tun , wenn ich mit den Tests für meinen C2 fertig bin , aber so kann ich jetzt schon feststellen , was ich noch zum Betrieb der Beiden benötige. Zumindest benötige ich noch Kabel (2xHDMI,2xLAN) , die kann ich morgen bei einem Elektronikladen im Vorbeifahren kaufen. Mal sehen was noch ...

Danke thorsam für die Idee , danke koschi für die Systemvorbereitungen und danke dem gesamten Planet3DNow!-Team für dieses ungewöhnliche Geschenk !


Dem "Chef de la Maison" (meinem Zimmervermieter) , ehemals selbst SETI-WU-Knacker , hat den hier abgelaufenen Deal mit Erstaunen anhand meiner Äußerungen verfolgt und hat möglicherweise wieder Interesse (wie schon vor Monaten) ...
Meinem Dafürhalten würde er gerne wieder mitmischen , aber er weiß noch nicht wie ...
Mann , ist der 'ne harte Nuß , ich versuch Ihn seit dem ich hier wohne wieder zum DC zu bewegen , aber die Familie benötigt ständig sein Dazutun hier und da ... Hat er keine Zeit für sich oder DC ?
Wenn ich den "C2 mit Problemen" wieder soweit zur Mitarbeit bewegen kann , dann leih' ich ihm den als "Kostprobe" zum Wiedermitmischen bis Weihnachten , ggf. schenke ich Ihm den C2 , wenn Er wieder den Weg zum DC gefunden hat ! Natürlich hier !
 
Die Bastelzeit ist wieder vorbei.
Zur Lagerung wird der Schrank seitlich gedreht (14 Filzgleiter als Füße) und oben drauf hat mein kleiner DP Cruncher noch seinen Platz gefunden. ;D
Eine Tür als Staubschutz ist zwar angedacht aber bisher habe ich noch nicht die passende gefunden.
Die dicke Radibox die gerade davor steht wandert spätestens zum Penta auf den Balkon.

Front.JPG Seite.JPG
 
Zuletzt bearbeitet:
Die richtete gegen Staub vermutlich nicht allso viel aus. *chatt*
Ne Lamellentür aus dem Baumarkt wäre eine Möglichkeit gewesen allerdings habe ich bei denen die Erfahrung gemacht das die sich gern mal verziehen. Ich habe auch schon überlegt ne Vitrinentür von Ikea zu nehmen allerdings sind die zu kurz. *kopfkratz
 
Es gibt diese Gitter auch mit Pollenschutz. Die dürften auch staubdicht sein.
 
Mit dem bereinigten System einen neuen Rosetta Testlauf starten.
Mal schauen wieviele VM WUs nun parallel laufen können. 8))
Doppelposting wurde automatisch zusammengeführt:

erste Erkenntnisse
Für die 128 Threads des Prozessors wurden 128 WUs geladen aber nur 88 gestartet. die restlichen 40 WUs stehen als "zur Ausführung bereit" in der Liste. Eine Limitierung von VBox?
Der Speicherbedarf liegt bisher bei ca. 141 GB RAM und das Rosetta belegt ca. 692 GB auf der SSD.
 
Zuletzt bearbeitet:
Zurück
Oben Unten