News Bristol Ridge mit ungewöhnlich hoher Double-Precision-Rechenleistung?

Diverse Boinc-Projekte wären nicht schlecht, POGS und WCG-OpenZika z.B. da könnte ich gut vergleichen, wie sich die CPU gegenüber einem 4 bzw. 8 Jahre altem Modell schlägt.
 
BOINC:
Milkyway lief bisher schlecht - fast alle WU ungültig
Collatz hats gestern alle WU direkt gecrasht - da fehlte offenbar irgend ein VCredist - habe daher sicherheitshalber mal alle VCredist (2008,2010,2012,2013 und 2015 je x86 und amd64) installiert und probiere es gerade erneut, rd 9min40 für Collatz Sieve v1.21 mit 4490 Credits - ist schon ok, meine RX460 benötigt rd 8min (muss da noch mal die Einstellungen prüfen
 
Zuletzt bearbeitet:
@Crashtest
Die stderr_txt zeigt folgendes:

3 warnings generated.

--------------------------------------------------------------------------------
Estimated AMD GPU GFLOP/s: 89 SP GFLOP/s, 18 DP FLOP/s
Warning: Bizarrely low flops (17). Defaulting to 100
Using a target frequency of 60.0
Using a block size of 2048 with 24 blocks/chunk
Using clWaitForEvents() for polling (mode -1)
Range: { nu_steps = 320, mu_steps = 800, r_steps = 700 }
Iteration area: 560000
Chunk estimate: 11
Num chunks: 12
Chunk size: 49152
Added area: 29824
Effective area: 589824
Initial wait: 13 ms

Bei mir schaut es so aus:
Estimated AMD GPU GFLOP/s: 3789 SP GFLOP/s, 947 DP FLOP/s
Using a target frequency of 60.0
Using a block size of 8192 with 68 blocks/chunk
Using clWaitForEvents() for polling (mode -1)
Range: { nu_steps = 320, mu_steps = 800, r_steps = 700 }
Iteration area: 560000
Chunk estimate: 1
Num chunks: 2
Chunk size: 557056
Added area: 554112
Effective area: 1114112
Initial wait: 15 ms
Integration time: 6.828459 s. Average time per iteration = 21.338933 ms
Integral 0 time = 7.177992 s
Running likelihood with 84046 stars
Likelihood time = 2.590725 s

Hab aber leider auch kein Plan was die Warning Message bedeutet, evt. mal den Temp Ordner leeren. *noahnung*

€dit: Von den WU Laufzeiten her sind die ~ 500GFlops "confirmed". Zumindest bedeutet ungültig nicht fehlerhaft. ;)
 
Zuletzt bearbeitet:
Etwas praxistaugliches: Packer (am liebsten xz, wenn Linux zur Hand ist, das ist der neue Standard-Packer), Video-Konvertierung
 
Zuletzt bearbeitet:
Da herrscht singlethreaded ungefähr Gleichstand zwischen dem 845 und dem 8350, aber der X4 macht das immerhin mit weniger Takt. Ist jetzt kein Quantensprung, eher eine kleine Verbesserung. Von meinem PhenomII hab ich leider gerade keinen Vergleich, aber von dem konnte sich der FX nie groß absetzen bei anderen Projekten, außer wenn mit Optimierungen gearbeitet wird.
 
ich hab noch ein Bild gefunden, was wohl das obere Ende der Fahnenstange darstellt, mit 8x S9150 in einer Kiste: :o

uo73uqrg.jpg


Davon ist ein Bristol Ridge doch noch etwas entfernt ;) Aber wenn man sich das mal ausrechnet:

Jede dieser S9150 kostet lockere 3000 Schleifen, dann braucht man noch ein passendes Board dafür, was sicher nicht gnz billig ist, sagen wir nochmal tausend drauf, dann noch eine ausreichende Stromversorgung und eine ins Board passende CPU (muß ja nicht die stärkste sein, aber umsonst gibt es auch das kleinste Modell nicht) und ein bißchen RAM. Also mit schätzungsweise 28000 € liege ich wohl nicht so weit daneben.

Dagegen kriegt man so ein Bristol-Ridge-System für 300 € hingestellt, oder sagen wir 280 zum leichteren Rechnen ;) Man kann sich also 100 solche Dinger hinstellen, das wären dann 56,5 TFLOPS (DP), also deutlich mehr als die 19,5 von dem 8x S9150-System!

Klar, das erste System braucht wahrscheinlich weniger Strom (das ganze überflüssige Geraffel von 99 Boards, 99 Netzteilen und 99 Festplatten fällt weg), außerdem nimmt es weniger Platz weg (dafür reichen 3 oder 4U in einem Rack, für die BR-Kisten bräuchte man ne Garage), selbst wenn man keine 100 BR-Systeme nimmt, sondern nur die Anzahl, um auch auf 19,5 TFLOPS zu kommen, also so ungefähr 35.

Aber nun stellt Euch mal vor, wie das aussieht, wenn man die Bristol Ridges in einem Microbladeserver unterbringt: 14 APUs auf 3U. Also mehr Rackspace als die Firepro-Kiste, aber dafür billiger. Ich kann mir durchaus denken, daß AMD sich vielleicht gedacht hat, diese Dinger können sie im Serverbereich unterbringen. Mal sehen, was da so kommt...
 
Zuletzt bearbeitet:
Da herrscht singlethreaded ungefähr Gleichstand zwischen dem 845 und dem 8350, aber der X4 macht das immerhin mit weniger Takt. Ist jetzt kein Quantensprung, eher eine kleine Verbesserung. Von meinem PhenomII hab ich leider gerade keinen Vergleich, aber von dem konnte sich der FX nie groß absetzen bei anderen Projekten, außer wenn mit Optimierungen gearbeitet wird.
Naja. Mein momentan auf 3,8 GHz übertakteter P2 X6 macht z.B. bei POGS 14600s für eine 279,18Cr WU, der 3,5 GHz Athlon braucht dafür nur 10800s. Und ich habe noch keinen (unübertakteten) 8350 in den Ergebnissen gesehen, der da schneller ist.


@OBrian: beeindruckende Zahlen.
Bei der Kalkulation vergisst du aber die Vermischung der Preise von Profi und Endkundenhardware. Der BR als Server Variante samt Plattform wäre sicher teurer.
Aber dass das Potential hat, erkennt man ja.
Angeblich arbeitet AMD an so einer HPC APU. Vllt. ist BR dafür sogar so eine Art Praxistest.
 
mein Tipp wäre auch, dass es sich hierbei um einen Nebeneffekt handelt aus den Vorbereitungen für APUs im HPC-Bereich. Da hat wohl irgendwer bei der Treiberentwicklung entweder nicht aufgepasst, was in den Release des normalen Treibers geht oder das ist bewusst so freigegeben.
 
Man müsste halt mal nen echten Carrizo (FP4) testen/vergleichen ....

Ich werde heute Abend noch etwas rumtesten nach dem Neuaufbau in LEV statt L
 
Nun ja, ich habe ja einen vollen Carrizo (FX-8800P) in meinem Schleppi drin, welcher seit dem verbesserten Wärmeübergang fröhlich seine 3,4 GHz halten kann. Da könnte ich mal den einen oder anderen Test für den Vergleich anwerfen. Leider läßt dessen Mainboard den Speicher nur auf dem 1600er Niveau laufen.

--- Update ---

So, ich habe mal meinen FX-8800P mit AIDA64 5.80 vermessen und komme im SP Bereich auf 656,2 GFLOP und im DP Bereich auf 403,3 GFLOP.
Im großen und ganzen läuft es also auf ein gleiches Verhältnis hinaus, der erkennbare Unterschied beruht auf unterschiedliche Taktraten da der GPU Takt zwischen ca. 650 MHz und ca. 750 MHz schwankte.
 
Dass das bisher noch niemandem aufgefallen ist...
Aber nur logisch, Da BR höchstens nur ein neues Stepping ist.
 
Es muss schonmal beim Carrizo aufgefallen sein denn ich habe noch ein paar alte Bilder vom AIDA64 GPGPU Score auf dem Laptop gefunden die ich damals bei dessen Test gemacht hatte und dort war es ebenfalls erkennbar. Die hatte ich mit Sicherheit auch im entsprechenden Topic, sind aber dem begrenzten Bilder Speicherplatz hier im Forum zu Opfer gefallen. Das hatte ich schon völlig vergessen...
 
So, ich habe mal meinen FX-8800P mit AIDA64 5.80 vermessen und komme im SP Bereich auf 656,2 GFLOP und im DP Bereich auf 403,3 GFLOP.
Im großen und ganzen läuft es also auf ein gleiches Verhältnis hinaus, der erkennbare Unterschied beruht auf unterschiedliche Taktraten da der GPU Takt zwischen ca. 650 MHz und ca. 750 MHz schwankte.
Hast Du da auch bei GPU geschaut? Die Werte klingen verdächtig nach CPU.
 
Ähm...gucke mal nach den Werten im News Beitrag.
Da lag der 3,8 GHz CPU Bereich des Bristol Ridge mit ca. 120 zu 60 GFLOPS noch nicht einmal ansatzweise in der Region und der Carrizo in meinem Laptop geht nur bis 3,4 GHz rauf. ;)
Die 650 zu 400 GFLOPS (512 shader bei ca. 650-750 MHz) passen hingegen recht gut zu den 770 zu 400 GFLOPS (386 Shader bei ca. 1030 MHz) des Bristol Ridge.

--- Update ---

Bei Bedarf könnte ich auch noch Vergleichswerte vom A10-7870k mit der Nano und vom FX-8350 mit der Pro Duo liefern. ;)
Kleiner Tip, die Nano kam auf ca. 510 DP FLOPS.
 
@Obrian
8) Ein Blockheizkraftwerk, der Server macht sich bestimmt gut in dunklen und feuchten Kellern. (zum trocken legen alter Mauern)

Wenn mehrere APUs im Server werkeln sollen wäre ein Omni-Path Interconnect die nächste Stufe um die Power auch zusammen zu bringen.
Multi-GPU skaliert im Profi Bereich schon sehr gut, Workstations haben wohl erstmalig die Chance auch mit große Cluster in Sachen Energie/Performance aufzuschließen. ;)

Hm, kaum habe ich eine Lizenz und keine Trail Version, sind die Bench Werte höher: http://abload.de/img/aida64_580_gpgpubenchjnqle.jpg *buck*
 
Sorry, da kamen einige Verwechslungen zusammen. Weiter machen, hier gibts nichts zu sehen.
 
Was ist eigentlich aus dem OpenCL - CUDA compatibility Layer geworden den AMD entwickeln wollte?
 
Keine Ahnung - aber inzwischen stelle ich mir die Frage: Wer nutzt heutzutage noch CUDA? Alle scheinen auf OpenCL zu gehen, da kann sich AMD mehr oder weniger zurücklehnen und warten, bis CUDA ganz ausgestorben ist.
 
Das glaube ich nicht. Im Profibereich setzt man ja weiter drauf.
Von einem CUDA compatibility Layer ist mir nichts bekannt. Aber AMD hatte erst vor kurzem eine neue Version des CUDA-OpenCL Übersetzungstools veröffentlicht.
 
Keine Ahnung - aber inzwischen stelle ich mir die Frage: Wer nutzt heutzutage noch CUDA? Alle scheinen auf OpenCL zu gehen, da kann sich AMD mehr oder weniger zurücklehnen und warten, bis CUDA ganz ausgestorben ist.
Wenn es auf den Radeon läuft mit dem CUDA Translator wird es wohl nie ganz aussterben.
Es gibt doch schon sehr viele Bibliotheken die nur darauf warten genutzt zu werden, anstatt nochmal neu zu schreiben.
 
Das glaube ich nicht. Im Profibereich setzt man ja weiter drauf.
OK, Boinc ist eher Amateurbereich. Aber da ist es mir aufgefallen, dass kaum noch ein CUDA-Projekt vorhanden ist.
Meine GPU macht im Moment Winterschlaf, weil ich gerade kein Projekt finde, wo es noch CUDA ohne CPU-Belastung gibt.
 
Keine Ahnung - aber inzwischen stelle ich mir die Frage: Wer nutzt heutzutage noch CUDA? Alle scheinen auf OpenCL zu gehen, da kann sich AMD mehr oder weniger zurücklehnen und warten, bis CUDA ganz ausgestorben ist.

Mathworks zum Beispiel. Matlab ist CUDA exclusive auch wenn ichs nicht nachvollziehen kann.
 
Zurück
Oben Unten