Formula Boinc 2022

Ritschie

Moderator (DC)
☆☆☆☆☆☆
Mitglied seit
30.12.2010
Beiträge
4.590
Renomée
1.338
Standort
/home
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023

FormulaBOINC (FB) ist ein Wettbewerb für BOINC-Teams. Er basiert auf dem Prinzip der Formel-1-Weltmeisterschaft. Ab 2017 besteht der Wettbewerb aus 2 Wettkampf-Gruppen:

  • Marathons: Jedes Projekt wird als Wettkampf angesehen. Für das laufende Jahr erhalten die ersten 10 Teams bei jedem Projekt eine feste Anzahl von FB-Punkten.
  • Sprints: 22 anhand der Übersicht der Formel-1-Grand Prix über das Jahr verteilte, 3-tägige Wettkämpfe. Jeder Sprint betrifft nur ein einziges Projekt, das erst 24 Stunden vor Beginn des Sprints bekannt gegeben wird. Die ersten 10 Teams jedes Sprints erhalten eine feste Anzahl von FB-Punkten.

Liste der Sprints:



Erster Sprint:
  • 17.03.2022 20:00 (UTC) - 20.03.2022 19:59 (UTC)
    Zu definierendes Projekt
 
Abonniert :)
 
@herby44
Ab Januar gibt es wieder in eine neue FB-Marathon-Wertung, da alles wieder genullt wird...
ES IST SOWEIT ;)
 
Hat wer Lust auf einen kurzen Sprint auf P1 bei MLC? Die vollen Punkte sind in Reichweite ;)
 
Meine 1660 ist schon dabei, wenn es gerade keine OPNG zu futtern gibt. *elchtop*
 
Gabs bei dem Projekt irgendwelche Einschränkungen?
Ich wundere mich gerade, dass ich einen Account habe, aber keinen einzigen credit.
Ich werfe mal die 1050ti ins Rennen.
 
Einschränkungen nur auf Graka-Seite, sprich es werden nur Nvidia Grakas unterstützt, da CUDA und nicht OpenCL zur Anwendung kommt.
Man sollte übrigens einen ganzen Kern für die GPU freilassen, sonst wird die nicht mal ansatzweise richtig ausgelastet.
 
Gabs bei dem Projekt irgendwelche Einschränkungen?
Ich wundere mich gerade, dass ich einen Account habe, aber keinen einzigen credit.
Ich werfe mal die 1050ti ins Rennen.
Keine Einschränkungen.
Windows und Linux. Es werden leider nur Nvidias-GPUs unterstützt. AMD war mal testweise da, ist aber aktuell wieder zurückgezogen.
CPU-seitig unter Linux auch ARM.
 
Man sollte übrigens einen ganzen Kern für die GPU freilassen, sonst wird die nicht mal ansatzweise richtig ausgelastet.
Hatte ich zufällig. Aber trotzdem dümpelt es nur mit 65-70% GPU-Last herum.
4300s braucht eine WU auf der 1050ti. Ich werde mal 2 parallel probieren.
Edit: 2 parallel bringen die GPU-Last nicht hoch. Dann lieber +100MHz. 33°C GPU-Temperatur sind auch ein Witz.
 
Zuletzt bearbeitet:
Ich habe nur einen Thread freigelassen und meine 1660 braucht so 3.900 Sek. pro WU und dümpelt auch mit ca. 70% Auslastung bei unter 40 Watt Leistungsaufnahme rum.

Was mir gerade auffällt: Ich habe relativ viele ungültige und fehlerhafte Tasks (83 zu 573 gültigen). Ist das normal?

Edit: Sehe gerade, dass auch bei erde-m viele Fehler und ungültige Resultate rauskommen, scheint also normal zu sein.
 
Zuletzt bearbeitet:
@Krümel
Schau mal auf das Datum, MLC lässt eine lange Historie in den Ergebnislisten stehen. Ich habe ganze 5 ungültige WU in den letzten Tagen bei 24/7 auf 160 Threads... 16 WUwurden vom Projekt abgebrochen. Also sehr überschaubar.
 
Hmm, die meisten Fehler sind bei mir Zeitüberschreitungen. Sehr merkwürdig, habe eigentlich keine verfallen lassen.
Bei den ungültigen fällt mir auf, dass meine GPU mit der V9.80 (Linux) rechnet. Die GPU die die WU dann gut geschrieben bekommen haben mit der V9.75 (Windows).
Anscheinend ist die Linux-GPU-App noch nicht ganz ausgereift.
 
Moin,
wie kann das sein, dass eine 1030 unter Linux schneller rechnet als eine 1660S unter Windows bei MLC?

Alle Tasks (Wollte eigentlich ein Bild einfügen, aber das klappt nicht...)
 
Windows halt...
 
Sieht gut aus bei MLC. In einer Woche von P 9 auf P2 *great*

Jetzt wehrt sich nur noch das UK Boinc Team ...
Bildschirmfoto vom 2022-01-08 09-14-37.png
THX für Eure Unterstützung *clap*
*attacke**attacke**attacke*
 
Leider wiedermal nur Mathe.
 
Moin,
wie kann das sein, dass eine 1030 unter Linux schneller rechnet als eine 1660S unter Windows bei MLC?

Alle Tasks (Wollte eigentlich ein Bild einfügen, aber das klappt nicht...)
Kann ich nicht bestätigen.

Meine 1660S läuft ordentlich, hat sich bei 2400 sek. eingependelt.
Interessanterweise ist eine 1650S nicht viel langsamer und eine RTX 4000 nicht unbedingt schneller.

Was überhaupt nicht gut läuft ist meine 3060Ti ~4500 sek. , CUDA halt
 
Was überhaupt nicht gut läuft ist meine 3060Ti ~4500 sek. , CUDA halt
Huch, was hat CUDA da für eine Schuld? In den meisten Projekten war CUDA bisher recht flott gegenüber OpenCL unterwegs. Das Ärgerliche ist die Nichtkompatibilität zu AMD. Als Projektbetreiber würde ich also auch nur OpenCL anbieten, das läuft auf allen Karten.

Mit ein wenig Übertaktung hat meine 1050ti sich nah an die 4100s herangearbeitet. Läuft auch mit CUDA.
 
Also ich lasse nur CPU laufen unter Linux.
Hatte das mal mit GPU verglichen und dann kamen die CPUs über die Anzahl der gleichzeitig gerechneten auf einen besseren Wert.
 
Meine 1050ti schafft 87k cr/d bei vielleicht 40W.
Der 1700-PC, in dem die Karte steckt, würde mit CPU wohl auf weniger credits bei mehr Verbrauch kommen. Da sehe ich die GPU noch deutlich im Vorteil.
Bei einem V12 ist das natürlich was Anderes. ;)

Normalerweise wäre MLC jetzt kein Projekt, was mich sofort anspringt - aber für die Geforce hab ich eh nur noch recht wenig Auswahl.
 
Meine 1660S läuft ordentlich, hat sich bei 2400 sek. eingependelt.
Interessanterweise ist eine 1650S nicht viel langsamer und eine RTX 4000 nicht unbedingt schneller.
Meine 1650S braucht unter Linux auch nur zwischen 2700 und 3100 Sek., deshalb wunderte mich das, dass die 1660S mehr als die doppelte Zeit braucht.

Ich hab jetzt auf einen älteren Treiber (Win) gewechselt. Mal schauen, was das bringt...
 
Hast Du jeweils einen kompletten CPU-Thread frei gelassen?
 
Meine alte 750Ti hat so 5150s gebraucht bei max 35W.
 
Zurück
Oben Unten