Neues Projekt und noch kein Planet 3DNow! Team?

Zuletzt bearbeitet:
Schade, dass die Projektbetreiber die Leute nicht auf dem Laufenden halten, was Stand der Dinge ist. Neue Arbeit sollte schon vor vier Wochen kommen, dann nur der verspätete Hinweis, dass noch Feintuning erforderlich ist. Hoffentlich treten sie nicht in die Fußstapfen von Blackholes@Home.
 
Sie sind zurück zum Grobtuning :D
Weiter geht's im nächsten Jahr, dafür mit 100.000 WUs.
 
Läuft allerdings bisher nur auf Windoof Rechnern. Leider
 
Eher ein wenig mehr :)
 
Eher ein wenig mehr :)

ok, hat sich nach 23 Minuten bei knapp 40% eingependelt.
Außerdem hat sich gerade noch ein anderers Projekt noch "vorgedrängelt" bei dem ich bislang 0 WUs hatte.

Bin eh erstmal bei Mama den Weihnachtsbaum abbauen, weil der wohl schon halb auseinanderfällt. :]
 
Die ersten 4 WUs sind durch. Brauchen auf meinem 7950X3D bei ca 4,6 Ghz 3150 sec und bringen um 46,5 Cr
Ach ja. Im Moment gibt es nur für Win Rechner Wus
 
Jetzt fehlen nur noch neue WUs.
 
Ich hämmere schon mit der update.bat *chatt*
 
Bei mir hat er direkt 20 rausgerückt. *noahnung*
 
Direkt hat er 32 Wus ausgeliefert und Stunden später nochmal 5 Stück. Seitdem ist Ruhe. Die update.bat läuft weiter....
 
Na dann macht mal. Jetzt scheint der Server jedenfalls genug WUs rauszurücken. Update.bat wieder eingestellt.
 
Uuuund wieder angeworfen. Vielleicht hilfts ja...
 
Es gibt wieder Aufgaben. Mir ist allerdings aufgefallen das die Anwendung gp.exe immer weiter läuft und Prozessorzeit verbraucht. Wenn ich z.B. die WUs auf sagen wir mal 30 Tasks gleichzeitig stelle dann läuft trotzdem ein 31ter task von gp.exe weiter. Warum? Wenn ich die Priorisierung von ODLK2025 auf ODLK stelle dann läuft trotzdem gp.exe weiter und zwar mit 31 Tasks. Das ist mir etwas merkwürdig vorgekommen. Ich werde das Projekt jetzt erstmal beenden.
 
Es gibt wieder Aufgaben. Mir ist allerdings aufgefallen das die Anwendung gp.exe immer weiter läuft und Prozessorzeit verbraucht. Wenn ich z.B. die WUs auf sagen wir mal 30 Tasks gleichzeitig stelle dann läuft trotzdem ein 31ter task von gp.exe weiter. Warum? Wenn ich die Priorisierung von ODLK2025 auf ODLK stelle dann läuft trotzdem gp.exe weiter und zwar mit 31 Tasks. Das ist mir etwas merkwürdig vorgekommen. Ich werde das Projekt jetzt erstmal beenden.

Mir war auch aufgefallen, dass mehrere gp.exe liefen. Die genaue Anzahl hatte ich aber nicht gezählt bzw nicht drauf geachtet.
 
Mir war auch aufgefallen, dass mehrere gp.exe liefen. Die genaue Anzahl hatte ich aber nicht gezählt bzw nicht drauf geachtet.
Wenn die WUs angehalten oder von einem anderen Projekt verdrängt werden läuft die gp.exe im Hintergrund weiter bis sie fertig ist. Die SymTuples wird vom BM angehalten aber nicht die gp.exe.
 
Ob das so ok ist frage ich mich allen Ernstes.
 
Ich kriege seit Anmeldung im Dezember leider keinerlei Tasks.
Testanwendungen kann man anscheinend auch nicht aktivieren - seltsam...

Michael.
 
Mal wieder was neues.

Wichtig ist: Es gibt noch kein P3D Boinc Team - BITTE ANLEGEN

BUDA023------
geppetto-hf-inference00------
Geppetto Inference via LLama.CPP00------
Minerva 7B Instruct Q6 inference via LLama.cpp1680444670.16 (0.04 - 1.65)13

Das sind die möglichen Aufgaben, es werden im Moment nur die Minervas geliefert. Ich denke das wird sich noch ändern. Alle Wus gibts nur für Linux, Windows ist im Moment noch nicht vertreten.

Der Preis für große Sprachmodelle ist insbesondere auf die Berechnungstermine beschränkt, ein Aspekt, der schwierig sein kann, um diese interessanten Modelle zu erhalten. Aus diesem Grund schlägt LLMentorGrid vor, die Rechenzentrumsform „Boinc“ zu nutzen, um freiwillige Computeranwendungen zu nutzen, um die wissenschaftliche Forschung in Bezug auf diese Modelle weit voranzutreiben.Das Hinzufügen eines Modells, das ein Verteilungsparadigma wie Boinc verwendet, ist einfach, nicht leicht realisierbar: Das Hinzufügen erfolgt sequenziell und ist in einer Reihe von „Arbeitseinheiten“ nur schwer parallelisierbar, in der Praxis wird die Arbeitseinheit „erfolgreich“ angezeigt Quella „precedente“ und co. Dieses Ziel war es, alle reichsten Teilnehmer in Bezug auf Berechnungspotenzial, Speichermenge, Ein-/Ausgabemenge und Band zu vereinen, und ich habe es bis zur Verwendung von Boinc auf dem Feld der Large Language Models geschafft, ohne dabei die große Bedeutung zu verlieren, die diese Modelle in der zeitgenössischen Welt hatten.LLMentorGrid unterstützte Boinc dabei, eine Plattform für die Durchführung von Experimenten mit seinem LLM zu schaffen, die nicht direkt mit der Erweiterung oder Erweiterung großer Modelle verbunden ist.Zunächst einmal schlägt LLMentorGrid vor, die Leistungsfähigkeit der Berechnungen zu verbessern, indem es freiwillige Berechnungen durchführt, um die Ergebnisse der Modellverfolgung zu prüfen, damit die von den Modellen generierten Inhalte vollständig erfasst werden können. Dies kann für verschiedene Bereiche wie die Generierung verschiedener synthetischer Datentypen (wie z. B. Rücksendungen, Nachbestellungen/Postsendungen, Zeilenumbrüche usw.) verwendet werden, die für die sukzessive Hinzufügung neuer Modelle erforderlich sind.LLMentorGrid ist auf jeden Fall ein geeignetes Werkzeug, um den Benchmark der aktuellen Modelle während des Batterietests zu überprüfen und die Loro Prestazione zu bewerten.Nun gut, LLMentorGrid ist ein Projekt, das so weit gekommen ist, dass ich das Interpretationsthema bereits weit fortgeschritten habe, bevor ich am 1. April die „schwarze Skala“ wähle und ein Modell hinzufüge, das den Modellentwicklern sehr nahe kommt, alles in Ordnung Sie reagieren darauf, dass alle Anwesenden ein Modell aufgeben, das sich in einem sicheren Modus befindet, und die Art der Schaltung, die in ihrem Inneren auftaucht, ist in Ordnung, da sie viele Komplizen von ihnen und ihrer Kapazität hat. Wenn Sie sich für ein Studio entscheiden, das fasziniert und interessiert ist, müssen Sie das Gesamtproblem mit der Garantie abdecken, dass die Modelle genau die richtige Größe haben, da Sie sie nicht in der Lage sind, sich an die Arbeit zu machen oder sie zu töten. Insgesamt kann LLMentorGrid verwendet werden, um die Bibliothek „transformerlens“ zu erweitern und die Aktivierungszustände des Modells zu analysieren, oder den Autoencoder zu überprüfen, um die Qualität einzelner „Neuronen“ eines Modells zu ermitteln, wenn es in verschiedenen Situationen aktiviert wird. Der Unterschied zwischen den hinzugefügten Modellen, der Parallelisierung und der Einführung von Boinc besteht darin, dass die Interpretationsfähigkeit dadurch verbessert wird, dass eine Architektur, die in vielen Experimenten verteilt ist, so einfach in kleinen Dimensionen zu kombinieren ist, dass sie Aggregate bilden kann.Auch du hast einen Beitrag geleistet!
 
Zurück
Oben Unten