PRIVATE GFN SERVER

Ich sehe gerade das stream doch die cert WU mit einen c markiert.
llr2_976463_qn1021c

@JagDoc
es wurde bei GFN15 Mega (beendet) schon auf MT hingewiesen.
Doppelposting wurde automatisch zusammengeführt:

Edit fragt: Hat irgend jemand schon mal GFN-14 Prime search für ATI bekommen? Versucht habe ich es, aber bisher ohne Erfolg.
Zur Zeit gibt es ja nichts, aber meine ATIs bekamen immer WUs.

Es soll eine neue GPU Anwendung kommen ,mit kurzen Laufzeiten.
 
Zuletzt bearbeitet:
GFN14 für CPU habe ich nun genug getestet und folgende Resultate:

1) Auch der Opteron 3280 ist mit vier Wuzen schneller als mit acht. Allerdings ist der Unterschied nicht so gewaltig wie beim Ryzen 7 oder 9.
2) Der i7-4770S ist mit acht Wuzen etwas schneller als der Opteron 3280, dazu kommt, dass er zumindest im BT1AD (Asus) weniger als die Hälfte an Power braucht. Also im Fall der Fälle lieber 2x BT1AD mit i7-4770S als 1x Opteron 3280. Ist leider mal so. :-/ Hier gewinnt Intel.
 
Es geht los!
Bei mir trudeln gerade die ersten GFN-1x Small Primes für Ati ein.

---update---

Der Linux-Client sorgt auf einer VII für einen gpu-load von 0 bis 10 Prozent.
Die RTX 2080 Ti bekommt noch keine WUs. Mal sehen, ob der Client besser ist.
Die RX640 meines Notebooks mit Windows ist da deutlich besser.

---update---

Die ersten 10 Minuten auf dem Linux-System mit der VII wurden scheinbar auf der CPU gerechnet.
Jetzt ist der load auf 100%. Voraussichtliche Berechnungszeit = 7 Stunden.

---update---

Die Nvidia hat jetzt auch eine WU bekommen, und ballert gleich mit 100% und 300 Watt an der Dose los.
Trotzdem in der cc_config.xml drin steht, er soll alle GPUs nutzen, rechnet er jetzt 2 WUs auf einer Karte.
Die Andere dreht Däumchen. :(
 
Zuletzt bearbeitet:
JagDoc hatte sich freundlicherweise die Mühe gemacht, und ausprobiert, ob die LLR-WUs auch von Multithreading profitieren.
Das Ergebnis bestätigt die Versuche. Ich habe den entsprechenden Eintrag für die app_config.xml in den Startpost mit aufgenommen.
Code:
<app_version>
<app_name>llr2</app_name>
<max_concurrent>1</max_concurrent>
<report_results_immediately/>
<cmdline>-t 4</cmdline>
<avg_ncpus>4</avg_ncpus>
</app_version>
 
Ich fahr schon mal auf die Standspur rüber, nicht das der Cluster mich übersieht und meine Rechenzwerge überrollt und platt macht.
 
Schau an, schau an. Bin bereits auf P5 zurückgefallen. Da ich im Moment beim Demontieren und Abspecken bin, kann ich auch keine Kapazitäten hierfür umleiten.
Also rauf auf den Parkplatz :-/
 
Da bei SiDock noch nicht so viel Arbeit ist, habe ich die Sachen mal umgelenkt. *hupp* *hupp* *knuddel*

Außerdem, was heißt hier Rechenzwerge? Hast Du mal in die Top Computer Statistik geguckt, wie weit oben Du mit Deinem 4700U bist? *great*
 
Da die Standart-Statseiten ein bißchen lahm sind, hier mal eine aktuelle Zahl:
Tagesoutput vom Team: 3.234.837 Punkte.
Teamstats: Platz 18
FB: 25 Punkte
 
Projektserver nicht erreichbar. Dann brauche ich mich nicht wundern, warum die fertigen WUs nicht hochgeladen werden können.

---update---

Ok, weiter gehts. Die Projektseite ist wieder da, und die uploads laufen.
 
Zuletzt bearbeitet:
Hui!
Da schauste mal nen paar Tage hier nicht vorbei und schon rückt General Cluster zum Manöver aus. *attacke* *attacke* *attacke* *attacke* ;D

Da wir ja nun wissen, was Opterons noch so "können", schmeiß ich mal das nächste alte Eisen ins Gefecht.

Mein Phenom II X4 955 BE hat sich mal schön 4 GFN-14 MEGAs geschnappt ... macht ja auch Sinn. :]:P
LLR2s hätten es wohl auch getan ...

Die aktuelle Hochrechnung liegt bei 2,5 Tagen pro WU.

Naja, ist ja kalt draußen - heizen wir mal wieder mit PCs. *chatt*
 
@Outlaw9876
Versuch es mal mit der app_config.xml aus dem Startpost mit 1 WU auf 4 Kernen, ist deutlich schneller.
Einfach in den Projektordner und Boinc neu starten, dann rechnet er die WU mit 4 Kernen.
Mein 4300U braucht für die Mega WU mit 4 Kernen 2h30m.
 
Auf dem Phenom II macht das keinen großen Unterschied.
Jetzt sagt er mir 12:40 Restlaufzeit bei einer Stunde Laufzeit bisher.
Das macht dann bei 4 WUs knapp 55 Stunden.

Die 2,5 Tage für 4 WUs gleichzeitig wären 60 Stunden - wobei er bei der Hochrechnung auch noch wieder etwas runtergegangen ist.

Somit Jacke wie Hose. *noahnung*
 
Warte mal ab, die Restlaufzeit pendelt sich noch ein.
Mein Odroid-H2 (Celeron J4105) braucht für die Mega 10h30m.
 
Und jetzt gab es einen Absturz...

Das scheint ja vielversprechend zu werden. :P
 
Auf dem Phenom II macht das keinen großen Unterschied.
Jetzt sagt er mir 12:40 Restlaufzeit bei einer Stunde Laufzeit bisher.
Das macht dann bei 4 WUs knapp 55 Stunden.

Die 2,5 Tage für 4 WUs gleichzeitig wären 60 Stunden - wobei er bei der Hochrechnung auch noch wieder etwas runtergegangen ist.

Somit Jacke wie Hose. *noahnung*
Schaut doch gut aus, die erste WU ist nach 9 Stunden fertig und lief ja zuerst auf nur 1 Kern.

Sollte auf dem 2200G auch viel bringen. Ich würde auf dem die GPU-WUs abwählen.
 
Nur leider nicht stabil.

Der Phenom ist gestern Nacht und heute früh wieder abgeschmiert.

Der muss ca. 3 Stunden nichts gemacht haben --> gesendet: 16:47 UTC --> gemeldet: 4:29 UTC - das wären dann 12 Stunden, obwohl nur ca. 9 Stunden Laufzeit.

Aktuell ist er aus. Mal sehen, ob ich da noch rumbastel.

Der Kollege ist etwas undervoltet (ist nen Deneb C2 mit 125 Watt).

Beim letzten Penta hat er so problemlos Rosetta und bei der Thor-Challenge WCG geknuspert.

Beim 2200G habe ich die GPU WUs mal abgewählt.

Die app_config.xml werde ich da später auch mal probieren.
 
Ich hab mal den 2400G zum Testen ausgegraben.
Eine kleine Übersicht der Laufzeiten:

2400G @3GHz Win10, 1 WU auf 4 Kernen.
LLR2 34 - 39 Minuten 318Cr
Mega 3h52m
Mega kurz 4 Minuten

4700U @2GHz Linux, 2 WU auf je 4 Kernen.
LLR2 22 Minuten 255Cr
LLR2 29 Minuten 315Cr

4700U @2,2GHz Win10, 2 WU auf je 4 Kernen.
Mega 4 Stunden
Mega kurz 4 Minuten

4300U @3GHz Win10, 1 WU auf 4 Kernen.
Mega 2h34m
Mega kurz 2m41s
 
Ich habe dem 2200G jetzt mal ein paar LLR2-WUs vorgesetzt.

Die erste WU @ 4 Cores hat knappe 44 Minuten gebraucht (Windows 10).

Mit den Phenom II X4 habe ich mich bisher nicht mehr beschäftigt.

Aber es geht ja noch bekloppter:

Ich habe hier auch noch einen Thin Client (HP t620) mit einem AMD GX-415GA SOC.

Das ist ein Quadcore mit 1,5 GHz auf Jaguar/Kabini-Basis.

Hier hat die modifizierte app_config.xml etwas gezickt.

Erst wollte er sie nicht fressen - somit hat er 4 WUs gleichzeitig angefangen (LLR2).

Drei WUs wurden auf 3:40 Stunden hochgerechnet und die vierte auf über 12 Stunden!?

Nach einem Neustart hat er die app_config.xml dann auch geschluckt.

Allerdings ist die hochgerechnete Laufzeit jetzt bei 1 WU @ 4 Cores weiterhin bei 3:40.

Mal sehen, ob sich das noch reguliert.
 
Ich habe auf dem 2200G auch mal 4 Wuzen GFN-Mega durchgelassen, durchschnittlich hat er 49.500s gebraucht, also 13,75h.
Ist das nun gut oder schlecht?
 
Ich hab keine Zeiten im single Mode mehr zum vergleichen.
Du könntest es mal mit der app_config.xml aus dem Startpost testen wie schnell er mit 1 WU auf 4 Kernen läuft.
 
Hm, nun ist er bereits wieder vom Netz. Wo liegt eigentlich der Vorteil, die WU mit 4 oder mehr Threads zu rechen?
Ist das dann schneller als t/4 oder gibts mehr Credits?
Ein i7-4770S macht hier im Moment eh nur GFN-14 Mega. Lohnt sich der Versuch mit 8 Threads?
 
Ich habe jetzt auf dem 2200G LLR2-WUs auf allen 4 Kernen berechnen lassen.
Die Werte schwanken zwischen 38 und 54 Minuten.

Auf dem GX-415GA laufen die LLR2 auf 4 Kernen mit ca. 3 Stunden.
 
Zuletzt bearbeitet:
@olsen_gg
Mit 1 WU auf 4 Kernen ist es schneller als 4 WU auf je 1 Kern.
Die Mega sollten nur ohne HT/SMT gerechnet werden.
 
Also HT abschalten oder geht auch nur 4 WU laden?
Ich versuche mal 4 WU. (Der PC ist mal wieder extern eingestellt.)
Doppelposting wurde automatisch zusammengeführt:

O.K., so geht das nicht. er hat mich ausgetrickst und macht jetzt 2x 4Wu. So war das nicht gedacht.
Doppelposting wurde automatisch zusammengeführt:

O.K., <project_max_concurrent>1</project_max_concurrent> hat erstmal geholfen.
 
Zuletzt bearbeitet:
2h50m Laufzeit für die Mega auf dem i7-4770S ist doch gut. 8)
 
Zurück
Oben Unten