Collatz - Generalmobilmachung gegen Sicituradastra !!!

Hi, probier mal das HWinfo Tool:
http://www.planet3dnow.de/cgi-bin/newspub/search.cgi?category=2&keyword=HWiNFO32
Im GUI oben die schnellzugriffs Symbole: "Sensor"auswählen und nach unten scrollen.
Da sollte auch die GPU Spannung angezeigt werden, vorrausgesetzt das auslesen ist vorgesehen. (Überwachungs Chip)
Hab klappt auch nicht, da steht nichts. Kann die Spannung aber mit dem sapphire tool Trixx auslesen.
Allerdings klappt damit das setzen des Taktes nicht. Naja,egal.
Frag mich gerade noch, ob ich ein Herstellerfremdesbios flashen soll, der AtomBIOSteil scheint recht alt zu sein.
 
@Opteron
Ok, dann geht es nur über ein GPU Biosflash.
Das vorhanden Bios mit GPUz auslesen und als .bin speichern, mit dem Editor die gewünschte Takte und Spannungen Einstellen, speichern, wieder auf die Karte zurück flashen.
http://www.hardwareluxx.de/communit...ditieren-und-per-atiflash-flashen-637046.html
Ein Herstellerfremdes Bios würde ich nicht empfehlen! Eine Not Karte ist auch hilfreich, falls was schief geht.

MfG
 
Na kann die Spannung schon mit Ati tray tools verstellen, aber war/bin mir nicht sicher, ob das auch wirklich geht ^^

BIOS hab ich schon geflasht, läuft alles jetzt auf 700/1100 @1,1V. Aber hilft nicht viel.
Naja, bin jetzt bei 600/1000 und 1,00V. Wegen den 1,00 wollte ichs auslesen können, da es den Wert im Traytool nicht gibt. Kann man selbst hinzufügen, scheint zu funktionieren. Im Moment erste Wu fertig, zweite rechnet - heureka.
Aber irgendwie hab ich das Gefühl,dass das an den Sonnenflecken oder sonstwas liegt...
 
Ahso, naja +0,1V sind nicht gerade viel.
Mit dem RBE kannst auch nachschauen was die max. Voltage ist.
Meine GTX580er sind auch Softwareseitig auf 1,138V begrenzt, via Bios flash sind jedoch 1,213V möglich.
Natürlich nur wenn die Temperaturen passen.

Der neueste Beta Treiber von nvidia ist auch sehr zickig was die GPU Vcore angeht.
Haben vorherige Treiber 1,0V ausgereicht, will dieser 1,025V also +25mV mehr bei Boinc.
Bei 3DM11-P sogar +50mV. *buck*
 
Da hat wohl wirklich einer die Bremse drin.

Aktuell 774,750.00 pending credit
 
Evtl. bunkert ja einer alle "großen" Wuzen und macht nur täglich oder alle 2 Tage ein Schedulerlauf ???

Wenn diese Person 30-50 Rechner mit mehreren GPUs hat - kann man schon einmal bis zu 15000 Wuzen im Pending haben ... außerdem werden derzeit mehr Wuzen verteilt als sonst sodass mehr Streuung und leider auch mehr Pending kommt
 
Zuletzt bearbeitet:
Dann werd ich wohl übers WE auch meine Karten umswitchen. Nur so zur Sicherheit. Vielleicht haben die das das böse R-Wort gehört. *suspect*

Gruß WhiteFire
 
Bei mir laufen inzwischen collatz 2.05 (CUDA31) 60min pro WU, bei den 30min WU (CUDA23) gab es ~3K Points.
Pendig credit: 60,750.00
 
Zuletzt bearbeitet:
Meine HD5850 braucht 28min für die großen WUs. Das eine GTX580 langsamer ist, ist ja ganz schön traurig... aus Effizienzgesichtspunkten.
 
Meine HD5850 braucht 28min für die großen WUs. Das eine GTX580 langsamer ist, ist ja ganz schön traurig... aus Effizienzgesichtspunkten.
Die GPUs sind ja auch nur mit ~30% ausgelastet, hab ein Video nebenher angeschaut, daher wurde die GPU Zeit gedrosselt.
Inzwischen kommt eine WU wieder auf 30min, dann sind aber gleich 2 fertig.
 
Zuletzt bearbeitet:
Pending credit zwischenzeitlich auf 113,625.00
Somit geht etwa die Hälfte der gerechneten WUs dahin.

Da ich heute auch der 4770 etwas Futter gegeben habe
 
So morgen kommen noch 3xHD5650m die schaffen 288 WU´s/24h gemeinsam.
Und eine HD5870 über WE bis Montag od. Dienstag. Was die HD5870 zusammenbringt weis ich noch nicht aber ich hoffe einiges.
Ohh man mein Pending wird ja immer größer und größer. 220k. Sicher tut der Kater Bunker ;D
 
Ne, ne, gebunkert wird nich. *nono**nono*

Wenn mann einen Rechner zum ersten Mal oder nach langer Zeit wieder auf Collatz loslässt, braucht es einfach etwas Zeit, bis sich das einpendelt.
 
So, ne HD4850 ist auch am Start.
 
so, hab ne GT240 und ne GTX275 geswitched ;-) . Ab Samstag dann die 6850.
Mal sehen, was da geht. Bin noch am überlegen, ob ich die GTX 570 auch noch switchen soll.....
 
so, hab ne GT240 und ne GTX275 geswitched ;-) . Ab Samstag dann die 6850.
Mal sehen, was da geht. Bin noch am überlegen, ob ich die GTX 570 auch noch switchen soll.....

Her damit. Morgen werde ich ein paar Notebooks dazu schalten. Wenns gut geht 500k Credits bis Montag ;D. Es lebe die HD5650Mobile :P
 
Naja, die GT 240 reißt hier nix....40 min pro mini collatz, aber egal ;-)
 
Also ich wusste die AMD/ATI GPU´s schneller sind aber sowas habe ich noch nicht erlebt.

Berechnungszeit mini_collatz

HD5650Mobile 500/800Mhz
14min 20sec

HD5770 960/1200Mhz
5min

GTX 550TI 1000/2000Mhz
8min 42sec

9800GT 700/1750Mhz
22min 31sec


Berechnungszeit collatz (groß)

HD5650Mobile 500/800Mhz
1h 24min

HD5770 960/1200Mhz
42min

GTX 550TI 1000/2000Mhz
1h 43min

9800GT 700/1750Mhz
3h 39min


Was mich wundert ist das eine HD5650 Mobile schneller die große WU berechnet als die GTX550 TI. Mini Collatz berechnet die GTX 550Ti schneller. Wie kann das sein?
 
...
Was mich wundert ist das eine HD5650 Mobile schneller die große WU berechnet als die GTX550 TI. Mini Collatz berechnet die GTX 550Ti schneller. Wie kann das sein?

Ich würde darauf tippen, dass AMD eine besser zugängliche Architektur verwendet, bzw. die vorhandene Technik für die reine Berechnung besser geeignet ist.

Nvidia setzt meines Wissens nach mehr auf spezialisierte "kleine" Einheiten, aber dafür eine hohe Anzahl um Grafik zu berechnen. Bei tatsächlicher 3D-Darstellung gewinnen GeForce-Karten daraus ihre Performance, bei "schnöden Berechnungen" kann die kompaktere AMD-Bauweise aber wohl eher Punkte.


PS: Ist natürlich jetzt vereinfacht dargestellt und auch mehr geraten als gewusst, bin da nicht mehr 100% in der Materie ^^
 
@Punky260

Danke für die Info.
 
Ich würde darauf tippen, dass AMD eine besser zugängliche Architektur verwendet, bzw. die vorhandene Technik für die reine Berechnung besser geeignet ist.

Nvidia setzt meines Wissens nach mehr auf spezialisierte "kleine" Einheiten, aber dafür eine hohe Anzahl um Grafik zu berechnen. Bei tatsächlicher 3D-Darstellung gewinnen GeForce-Karten daraus ihre Performance, bei "schnöden Berechnungen" kann die kompaktere AMD-Bauweise aber wohl eher Punkte.


PS: Ist natürlich jetzt vereinfacht dargestellt und auch mehr geraten als gewusst, bin da nicht mehr 100% in der Materie ^^

Tatsächlich ist Nvidias Architektur speziell für GPGPU ausgelegt und unterstützt mit C for CUDA eine deutlich umgänglichere Programmiersprache als AMDs CAL. Auf der anderen Seite hat AMD eine deutlich höhere theoretische GPU-Leistung, wie du beschrieben hast durch die VLIW-Architektur, Mehrdimensionale Shader. Diese sind bei Spielen schwierig auszulasten und erfordern immer Optimierungen am Treiber, bei GPGPU ist das aber praktisch nicht nötig. Ein weiterer wichtiger Punkt, der hier anzuführen wäre, ist dass Nvidia die für hier wichtige Berechnung mit doppelter Genauigkeit seit der GTX400-Serie beschnitten hat, damit die Kunden auf die teureren Workstation-Karten zurückgreifen müssen für solche Aufgaben. Bei Spielen wiederum ist single precission vollkommen ausreichend, deswegen können hier die NVIDIA-Karten wieder mithalten und werden deutlich besser ausgelastet, so ist der praktische Durchsatz teils besser als bei AMD.

Vergleich:
6970 single/double precission: 2703/676 GFLOP -> Verhältnis 4:1
GTX 580 single/double precission: 1581/197,6 GFLOP -> Verhältnis 8:1

Ich mag das Thema einfach, sry für OT :)
 
@Onkel_Dithmeyer

Alles klar super erklärt danke.
Unser Output wird immer besser, 6 Mille gestern und die Sicituradastra lassen nach.
 
Zurück
Oben Unten