Der allgemeine Ryzenthread.

@Shai Hulud Hast du schon Ryzen Master ausprobiert zum zurücksetzen oder auf Eco umzustellen?
Auf CTR bin ich ja gekommen, da Ryzen Master mit dem Ryzen 3600 nie laufen wollte. Nur jeder 10. Startversuch war erfolgreich.

Mit dem 3700X kann ich es ja noch mal probieren. Da der PC eh immer unter Vollast läuft, klappt es auch soweit mit ZenStates ganz gut.
RyzenMaster würde ich aber auch nur max zum Testen verwenden und nix Abspeichern.
Die Einstellungen ins BIOS zu übertragen ist deutlich sicherer.
 
Der Preis vom 5950X ist unter den vom 3950X gefallen. das finde ich erstaunlich.

Gründe? Läufen die Änderungen am L3 doch noch nicht so rund? Kam ja auch ein neues Stepping Vom TR 5000 ist auch noch nichts zu sehen. Anscheinend ist da beim Datenverschiebebahnhof noch einiges auf der To Do Liste.
 
? denke nicht das es was mit dem zu tun hat was du vermutest. Das ja schon fast eine "Verschwörungstheorie" *chatt*
 
War da nicht was, dass für Aufrüstwillige mit 300er Board beim Zen 2 Schluss war?! Könnte die höheren Preise erklären.

Gruß
Ritschie

@eratte : bereinigt - danke für den Hinweis.
 
Ja (du meinst ZEN2) und die Frage ist auch wie viele 3950X noch produziert werden.
 
Der Preis vom 5950X ist unter den vom 3950X gefallen. das finde ich erstaunlich.

Gründe?
Der 3950 läuft langsam aus. Den haben deutlich weniger Händler auf Lager. Zum Schluss bleiben immer noch nur ein paar von den teuren Händlern übrig.
Und der 5950X kommt eben langsam mal in den Bereich der UVP, inzwischen haben wohl alle einen, denen das Geld egal war.
 
Hattest du dabei auch etwas Last auf die GPU gegeben? (auf das Fragezeichen hinter dem "Bus Interface" Feld klicken)
In Idle schalten die Karten idR. die Lanes und den PCIe Standard runter. Dann sollten 8x PCIe 3.0 Lanes anliegen.
 
Mal ne Frage in die Runde, ob der 3950X nicht mehr boostet, sobald man mit PPT, TDC und EDC rumspielt? Ich hab ihn - mangels guter Kühlung - im BIOS (ASRock B450M-HDV 4.0) auf ca. 90W festgelegt PPT 100, TDC 72, EDC 108

1631738545122.png

1631738458640.png

Egal wie viele Kerne belastet werden, geht aber keiner mehr über die 3,5GHz Basistakt. Soll das so?

Die Screenshots wurden mit einem Kern auf 100% gemacht. Frequency Limit wären lt. HWInfo ja 4.7GHz, geboostet wird aber überhaupt nicht.
 
Ich hab bei mir nur PPT=78W eingestellt - der boostet trotzdem fröhlich vor sich hin.
 
Ich hab bei mir nur PPT=78W eingestellt - der boostet trotzdem fröhlich vor sich hin.
Hab parallel selber rumgespielt. Offensichtlich liegt es daran, wenn man (zumindest bei meinem ASRock-Brettchen) auch eine maximale CPU-Temperatur einstellt. Jetzt boostet er wieder ordentlich, wird aber trotzdem nicht wärmer. *buck*
 
Nein, die 78W werden knallhart eingehalten.
Mir geht es hauptsächlich um Effizienz und die hat bei 78W ihr Maximum.

Klar, mit AVX(?) und Sidock ist aktuell eher wenig Takt vorhanden.

k10temp-pci-00c3 Adapter: PCI adapter
Tdie: +54.5°C (high = +70.0°C)
Tctl: +54.5°C

Dass es kühl und leise bleibt, ist aber auch ein angenehmer Nebeneffekt. Ist ja mein HomeOffice.

Edit: Noch als Vergleich mit 25% CPU load:

Temp=61°C

Mit nur noch einem Kern für Boinc werden es aber auch nur 4,5GHz, nicht 4,7. Dann schluckt der eine Kern schon 12W, nicht mehr 3W.
 
Zuletzt bearbeitet:
Schick? Nee, ich mag es eher schlicht.
Ubuntu 20.04.1 LTS mit Mate desktop.
 
Schick? Nee, ich mag es eher schlicht.
Ubuntu 20.04.1 LTS mit Mate desktop.
Auch ein schlichtes Design ist ein Design. ;)

Linux wurde 30 Jahre alt, dafür das es nur als Hobby nebenher entwickelt wurde, Hut ab, ganz großes Kino! :)

Wenn meine HDDs abgeschalten werden, kommt mein System auf 87W@230V im idle.
 
So mal n kleiner Zwischenbericht zu meiner nun seit knapp einem jahr genutzen Workstation mit dem 3960X. Viele Anwendungen sind nicht in der Lage auch auf nur mehr als 2 CPUs zu skalieren. So dauert dann eine Wasserscheidenberechnung ganze 6 Stunden, wo bei voller Auslastung der verfügbaren Rechenleistung der PC in 15 Minuten hätte durchrechnen können. Hier sind also die Software-Entwickler um so mehr gefragt, leistungsfähige Software zu schreiben, die auch stark parallelisiert. Allen voran natürlich ESRI.
hab aber doch etliche Software in der Anwendung die tatsächlich voll auf alle CPUs skaliert. Dass dann die Berechnung immer noch 3-4 Stunden dauert (M3C2-Algorithmus), kann man sich ja auchrechnen, wie lange ein 4-Kern-Dektop-Teil oder gar ein Notebook dran rechnen würde. :-) Das erleichtert mir also doch durchaus ein Stückweit die Arbeit.

Ansonsten komme ich immer häufiger an die Grenze des verbauten RAMs 128GB führten neulich zum Abbruch einer Berechnung, weil zu wenig Speicher da war. Jetzt kommt evtl. nochmal ein Upgrade auf 256GB. Aber dann war's das schon! Mehr kann die CPU garnicht ansprechen. Also auch hier wieder Flaschenhals. mit 512GB würde ich mich einigermaßen wohl fühlen.

Ansonsten rockstable das Teil.
 
Zuletzt bearbeitet:
@ el-mujo

Deine Worte bezüglich Entwickler Leistung wird schon im Profi-Bereich umgesetzt.
Netflix ist jedem ein Begriff denke ich mal:



Netflix also tested this on other platforms, including Intel Xeon (Ice Lake) and Ampere's Arm-based Altra Q80-30 configurations, but was not able to match the performance it achieved on AMD's EPYC platform. Interestingly, it was the Arm-based configuration that came the closest, but AMD still held the advantage, at least as configured.

Also von anfänglich 200 auf 400 und nun sind 800GBit schon vorbereitet, laufen nur noch nicht weil es Verzögerungen bei der Hardware Lieferung gibt. ;)

Edit: Damit sollten dann endlich auch mehr als 64 Spieler pro Battelfield Match Zeitgleich möglich sein.
 
Zuletzt bearbeitet:
Deine Worte bezüglich Entwickler Leistung wird schon im Profi-Bereich umgesetzt.
Da muss ich widersprechen ..

"wird teilweise schon im Profi-Bereich umgesetzt". Viele professionelle Softwareschmieden hinken einfach hinterher oder kriegen's nicht gebacken. Doof nur, wenn man uff bestimmte Sachen dann angewiesen ist.
 
Zurück
Oben Unten