Optimierte MilkyWay@home Applikation

Die Leistung wurde auch nur um den Faktor 4 gesteigert, jedoch durch die Verdopplung (etwas mehr) der Shadereinheiten kommt man auf den Faktor 8 gegenüber der Vorgängergeneration.
Du kennst nvidias eigene Darstellung (siehe Seite 9 für sowas wie einen Benchmark)?
Das soll wohl sowas wie den real world Vorteil darstellen, dummerweise ist schon eine HD4890 praktisch 4 mal so schnelle wie ein GT200 bei Matrix-Multiplikationen *noahnung*

Und auf Seite 5 steht:
Fermi Whitepaper schrieb:
8x the peak double precision floating point performance over GT200

Und hier geht es ja darum, was man in einem (zwar speziellen, aber) realem Anwendungsfall herausbekommt.
 
Du kennst nvidias eigene Darstellung (siehe Seite 9 für sowas wie einen Benchmark)?
Das soll wohl sowas wie den real world Vorteil darstellen, dummerweise ist schon eine HD4890 praktisch 4 mal so schnelle wie ein GT200 bei Matrix-Multiplikationen *noahnung*

Und auf Seite 5 steht:


Und hier geht es ja darum, was man in einem (zwar speziellen, aber) realem Anwendungsfall herausbekommt.


Zu Seite 9: Dort steht "performed per SM, per clock" -> also 4fache Leistung per Shadereinheit.

3DCenter sieht das genauso:
Viele der Änderungen betreffen aber wirklich nur den GPGPU-Bereich – beispielsweise die enorme Steigerung der DoublePrecision-Performance (pro Shader-Einheit um den Faktor 4 gegenüber dem GT200-Chip)

Zu Seite 5:
8x the peak double precision floating point performance over GT200
Also 8fache Leistung gegenüber dem GT200

Nix anderes, wie ich gesagt habe.
 
Zu Seite 9: Dort steht "performed per SM, per clock" -> also 4fache Leistung per Shadereinheit.
Kannst Du mir das mal in der Abbildung dort zeigen?
fermi_bench.png


Also ich lese da was von "application performance", nix mit per SM sondern total und absolut.
 
Zuletzt bearbeitet:
Im Test stehts kurz davor:
Designed for Double Precision
Double precision arithmetic is at the heart of HPC applications such as linear algebra,
numerical simulation, and quantum chemistry. The Fermi architecture has been specifically
designed to offer unprecedented performance in double precision; up to 16 double precision
fused multiply-add operations can be performed per SM, per clock, a dramatic improvement
over the GT200 architecture.

Aber ob sich das noch aufs Bild bezieht ... das ist doch nur ein Halbsatz ...

ciao

Alex
 
Im Test stehts kurz davor:


Aber ob sich das noch aufs Bild bezieht ... das ist doch nur ein Halbsatz ...

ciao

Alex
Das bezieht sich auf die Anzhl der Einheiten im SM und darauf, daß das eine dramatische Erhöhung gegenüber GT200 ist, was ja auch stimmt. Aber wie gesagt stellt die Abbildung die "application performance" dar, also eigentlich für den gesamten Chip. Und dann hat nv irgendwie Mist gebaut. Auch das Demo bei der Präsentation hat absolut nur eine Steigerung in der Größenordnung gezeigt.
 
Sagen wir mal so: Nochmal kann sich das NV nicht erlauben, sie müssen mindestens gleichziehen zum R800, alles andere wäre peinlich bzw. peinlicher als GT200 vs. RV770.
 
Wenn sich die Leistung bei DP in realen Anwendungen wirklich nur um den Faktor 4 zum GT200 gesteigert hat, wäre das wohl ein Witz im Vergleich zu Ati. Dies ist für mich ein weiterer Hinweis darauf, dass das Bild den Zuwachs pro Shadereinheit zeigt.
 
Zuletzt bearbeitet:
Wenn sich die Leistung bei DP in realen Anwendungen wirklich nur um den Faktor 4 zum GT200 gesteigert hat, wäre das wohl ein Witz im Vergleich zu Ati. Dies ist für mich ein weiterer Hinweis darauf, dass das Bild den Zuwachs pro Shadereinheit zeigt.

Wenns so wäre, dann wäre aber das Bild ein Witz, wieso sollte man bitte den Leistungszuwachs pro SM zeigen ? Interessiert doch keinen ...
Ausserdem steht in der Bildunterschrift "Fermi" und nicht "Fermi's SMs".

@Gipsel: Seh ich auch so, aber das verstehen wohl einige anders ^^

ciao

Alex
 
@Gipsel: Seh ich auch so, aber das verstehen wohl einige anders ^^

ciao

Alex

Ja ich seh das anderst, genauso wie das 3dcenter.

Nun ja, dann lasst uns mal abwarten was der neue Nvidia Chip wirklich bringt (und wer recht hatte^^).
 
Ja ich seh das anderst, genauso wie das 3dcenter.
Ist es wirklich so schwierig, zwischen der Angabe der theoretischen Peakleistung pro Takt und der Leistung der Karte in einer realen Anwendung zu unterscheiden? :]

Nvidia kann eigentlich nur retten, daß für die "early performance evaluations" der Chip noch weit von den finalen Taktraten enfernt war (Shadertakt 1 GHz oder darunter, sowas in der Richtung). Ansonsten wäre die Steigerung nämlich mies.

Edit:
Nur um das offtopic jetzt mal abzuschließen, das mit den 4 mal so viel pro SM ist noch viel größerer Blödsinn. Warum? Nun, GT200 hatte 30 SMs mit je 8 SP-Shader-Einheiten + 2 SFUs + 1 DP-FMA, Fermi hat nur noch 16 SMs mit allerdings jetzt 32 SP-Shader-Einheiten, die allerdings auch 16 DP-FMAs können + 4 SFUs. Die DP-Leistung pro SM hat sich also theoretisch sogar versechzehnfacht, nur gibt es jetzt auch nur noch etwa halb so viele davon.

PS:
Die Integer-Leistung von Fermi ist ziemlich hoch ;)
 
Zuletzt bearbeitet:
63sek für eine Wu ?
Bei wievielen gleichzeitig ?
Würde ja meine 4870 um längen schlagen ^^

Vielleicht gibts bei deiner HD4870 Probleme mit der Kühlung und sie throttled deswegen? Da könnt ich mir durchaus vorstellen.
 
Nee, er sollte sich mal die Zeiten auf der MW-Seite ansehen. Oder einfach die vom BOINC-Manager angezeigt Wall Clock Time (~150 Sekunden) durch die Anzahl der gleichzeitigen WUs (3) teilen. :] *lol*

In seinem Screenshot sieht man doch sogar, daß wenn nur zwei laufen, er bei 52 Sekunden auch schon bei 52% ist. Wie lange dürfte dann eine WU dauern? :]
 
Zuletzt bearbeitet:
Kurz Frage an alle. Bekommt ihr WU's?
 
Seit gestern Abend ist das Projekt down. Im Forum gibts auch keine Neuigkeiten.
Da Travis den postalischen Versand von WUs ablehnt gibts momentan keine WUs.
 
Projekt läuft wieder ;D
 
Kann mir einer vielleicht helfen? Hab das Problem das alle 3-10min die Grafikkartentreiber zurückgesetzt werden und dann nur noch die CPU Boinc rechnet. Alle Temps der GPU sind max. auf 62°C bis auf die Spannungswandler, die sind auf max. 75°C was eigendlich auch noch OK ist (Ausgelesen mit GPU-Z).

in der app_info.xml ist folgendes:

<app_version>
<app_name>milkyway</app_name>
<version_num>19</version_num>
<flops>1.0e11</flops>
<avg_ncpus>0.50</avg_ncpus>
<max_ncpus>1</max_ncpus>
<coproc>
<type>ATI</type>
<count>1</count>
</coproc>
<cmdline>n1 w1.00</cmdline>
<file_ref>
<file_name>astronomy_0.20_ATI_x64.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>brook64.dll</file_name>
</file_ref>
</app_version>

Tasks
Den wait Wert hab ich auch schon noch höher gehabt und bei <avg_ncpus>0.50</avg_ncpus> hab ich bei 1.0 angefangen runter zu gehen, hat auch nix gebracht.
Ist da sonst irgendwas falsch?


System: Win7 64bit / C2D E8600 / 4GB RAM / HD4870 512MB / Grafikkarten Treiber 9.7 / Bionc version 6.10.9 / Ressourcenaufteilung ist bei 50 für Milkyway; 100 für Poem; 100 für Malariacontrol.net



Edit: Was muss ich einstellen damit mehr als nur eine WU gleichzeitig gerechnet wird?
 
Zuletzt bearbeitet:
Kann mir einer vielleicht helfen? Hab das Problem das alle 3-10min die Grafikkartentreiber zurückgesetzt werden und dann nur noch die CPU Boinc rechnet. Alle Temps der GPU sind max. auf 62°C bis auf die Spannungswandler, die sind auf max. 75°C was eigendlich auch noch OK ist (Ausgelesen mit GPU-Z).

in der app_info.xml ist folgendes:
.....
--edit-- müll raus wegen nicht richtig gelesen --end edit--

Meine 4850 brauch ca. 61 sekunden pro WU. Daran solltest Du Dich orientieren können. (Deine sollte schneller sein!)
Bei meiner Crossfire Config macht es keinen Unterschied, ob ich pro GPU eine WU oder mehr knusper. Ich hab's deshalb auf eine WU pro GPU gestellt.

Gruß,

Sysfried
 
Zuletzt bearbeitet:
ich hab nen massives problem mit MW+ATI app :/

seit einem bestimmten tag läuft die app nicht mehr kommen nur noch berechnungsfehler
von heut auf morgen lief nichts mehr .........

hab ja auch nichts verändert ...... *noahnung*

hab jetzt nach dem Problem cat 9.9 und die dll datein nochmals erneuert zeigte jedoch keine wirkung :/
 
Gleiches Problem hatte ich auch

Das Problem war ein Windows 7 Update, und zwar wurde da ein 18MB großes ATI - Driver Update eingespielt *suspect* - seit dem hatte ich sporadische VPU-Recovers (bei MW und Collatz), bei der X2 ließ sich dann auch die 2. GPU nicht mehr übertakten.

Abhilfe sah so aus:
1. Autoupdate AUS
2. alles was mit ATI zu tun hat deinstallieren
3. reboot
4. Cat 9.9 installieren
5. reboot

läuft nun wieder (die Prozedur hatte ich letzten Fr bzw. Sa. durchgeführt)
 
Zurück
Oben Unten