Allgemeiner Plauderchat über das Thema DC Part IV

Hast du die eventuell irgendwann in der cc_config.xml mal ausgeschlossen?
 
Nein. Hab ich nicht.

Geht auch nicht da es ein neuer Rechner ist.
Versuch mal in der cc_config.xml:
Code:
<options>
<use_all_gpus>1</use_all_gpus>
</options>
If 1, use all GPUs (otherwise only the most capable ones are used). Requires a client restart.
 
Es gibt dort keine CC_config. Hab jetzt eine erstellt. Inkl. dem Punkt Use All GPUs, Boinc ignoriert die Datei.
 
Hat sich da statt dem .XML ein .TXT eingeschlichen?
 
Das tut es gern, vor allem unsichtbar hinten an das .xml dran, als .xml.txt
Am Besten in den Ordneroptionen/Ansicht das Häkchen bei "Erweiterungen bei bekannten Dateitypen ausblenden" ganz rausnehmen, dann kann das nicht mehr passieren.

1766828650861.png
 
Nee, die mußte ich immer erst anlegen.
 
Nee, die mußte ich immer erst anlegen.


Hast du da mal eine komplette Befehlsfolge? Die im Wiki, die Google mir raus wirft, taugt nichts, da kommt die Meldung fehlende Startparameter.
 
<cc_config>
<options>
<use_all_gpus>1</use_all_gpus>
</options>
</cc_config>
 
Unter Linux wird eigentlich immer eine angelegt, die muss nur noch an die eigenen Bedürfnissen angepasst
werden und mit
<ignore_ati_dev>0</ignore_ati_dev> unter options kann man eine Karte auch komplett ausschliessen.


Code:
<cc_config>
 <options>
  <http_1_0>1</http_1_0>
  <use_all_gpus>1</use_all_gpus>
  <allow_remote_gui_rpc>1</allow_remote_gui_rpc>
 </options>
</cc_config>
 
Zuletzt bearbeitet:
Und das ist die ganze Datei?

Die Befehlssätze aus dem P3D Wiki waren etwas umfangreicher.

Müsste mich auf dem Threadripper mal im Forum anmelden, um den Link zu teilen.
 
Und das ist die ganze Datei?
Ja, mehr braucht es nicht.

In der in der P3D Wiki stehen alle Optionen drin die möglich sind.
Ist dann sehr groß/unübersichtlich, deshalb am Besten nur das benötigte eintragen.
 
Zuletzt bearbeitet:
Mal was anderes an unsere Leute die mehrere GPUs in einem PC laufen haben ...
Aktuell sieht es so aus das ich dann in meinem zukünftigen 9940X zumindest anfangs 2x 3060Ti laufen haben werde, diese möchte ich gerne auf Grund der Wärmeentwicklung im Gehäuse etwas in der Leistung drosseln möchte.
Wie lässt sich das einfachsten umsetzen? Geht das mit der Weile auch bei NV im Treiber oder über den MSI Afterburner?


Das wird zumindest am Anfang das Gehäuse sein in dem das alles wohnt ... das hab ich noch auf dem Dachboden.
Mehr als 2 GPUs bekomme ich da vermutlich nicht rein wobei es bei 2 Slot Designs durchaus 3 sein könnten, je nach Aufteilung der Slots auf der Platine ...

Bei diesem hier dürfte es nicht gehen


und bei diesem hier leider auch nicht ...



Wobei vllt könnte unten in den letzten Slot noch eine 2 Slot LP Karte passen die nur eine Slotblende hat, sowas wie diese hier:



Sowas würde natürlich auch gehen


Netzteil wird dieses hier sein, daher generell bin ich nicht unbedingt Limitiert was die GPUs angeht aber andererseits sind es halt doch eben nur 1000W

 
Zuletzt bearbeitet:
Mal was anderes an unsere Leute die mehrere GPUs in einem PC laufen haben ...
Aktuell sieht es so aus das ich dann in meinem zukünftigen 9940X zumindest anfangs 2x 3060Ti laufen haben werde, diese möchte ich gerne auf Grund der Wärmeentwicklung im Gehäuse etwas in der Leistung drosseln möchte.
Wie lässt sich das einfachsten umsetzen? Geht das mit der Weile auch bei NV im Treiber oder über den MSI Afterburner?
Mit dem Afterburner klappt das hier beim 9950X hervorragend. Da stecken eine RTX 4070 Ti und eine 5070 Ti drin. Die 5070 Ti lässt sich damit aber nur auf 83% TDP senken und kein Temperaturlimit einstellen. Zusätzlich könnte ich noch den Takt reduzieren, was aber bei max 80 Grad nicht unbedingt notwendig ist. Die 4070 Ti lässt sich auf 35% senken und Temperaturlimit ist auch verfügbar.
 
Oh, ein neues Badge bei Numberfields - 5M-Grenze überschritten.
:-)
 
Auch unter Windows soll es ja nvidia-smi geben damit läuft hier unter Mint eine 4070 mit 100W(100-216).
 
Jetzt nimmt Boinc Beide. Danke für die Hilfe
 
Der Rechner mit der Nvidia-Karte läuft nun wieder nach kompletter Neuinstallation.
Diesmal ist mehr oder weniger automatisch der 580 Treiber drauf gelandet und nicht der alte 535, den ich sonst immer hatte. Einstein läuft damit, also lass ich es mal so. Auch LACT hat sich nicht mehr beschwert, dass nicht alles möglich wäre. Nun heißt es Daumen drücken, dass Ubuntu nicht wieder über Nacht alle Treiber vergisst.
 
Hab jetzt die Meerkätzchen laufen lassen. Knapp 10 Min auf der 9060 XT in dem PCIe 3.0 1x Slot.
Im PCIe 5.0 16x Slot oder PCIe 4.0 4x Slot komme ich auf Werte zwischen 9:40 und 9:51 Min. Scheint also keinen (nennenswerten) Einfluss zu haben.
 
Ist wahrscheinlich eine allgemeine Boinc-Sache, nicht speziell LHC, daher frag ich hier:
Hab folgendes Phänomen:
Das Arbeitspaket ist gekennzeichnet als Paket abgebrochen:
Fehler Paket abgebrochen
Das Endedatum der WU selbst wird aber ständig weiter nach hinten geschoben, aber herunterladen und bearbeiten kann ich die 11 WUs nicht:
31.12.2025 15:02:20 Didn't resend lost task MiALDm8Vao8n9Rq4apOajLDm4fhM0noT9bVo0NGKDmQLOKDmBWVuDn_0 (expired)

Ich habe bereits das Projekt zurückgesetzt und sogar den PC vom Projekt abgemeldet und das Projekt auf dem Rechner wieder hinzugefügt. Bleibt bei dieser Meldung.

Ich vermute, dass die expired-Fehlermeldung nicht ganz korrekt ist, denn der Server will mir die Task nicht senden, weil das Paket bereits als abgebrochen gekennzeichnet ist.

Aber was kann ich da nun tun?
 
Zurück
Oben Unten