AMD Ryzen 7000/8000 (ZEN4, AM5, DDR5, PCIe 5.0) Reviewthread

Der 7900X3D ist leider tatsächlich ein reines Marketing-Produkt, technisch kaum sinnvoll bzw. vertretba
naja, siehs mal so: man kann sich darüber wundern, - es negativ bewerten, oder ... jeder nutzt genau das was er mag.
Jedenfalls fehlt es nun an den verschiedensten Setups nicht - für jeden die passende CPU mit viel oder wenig Cache, hoher TDP oder niedriger oder was auch immer.
So ist nun jedenfalls hoffentlich auch der Letzte mit vielleicht berechtigten "Sonderwünschen" der Vergangenheit bedient.
 
Der 7900X3D ist leider tatsächlich ein reines Marketing-Produkt, technisch kaum sinnvoll bzw. vertretbar.

In wie fern Marketing, ist ein höhere Basis Takt kein Argument wenn eh nicht alle 16 Kerne genutzt werden.
Das schafft ein bischen TDP Budget welches bei 12 Kerne in mehr Takt umgewandelt werden kann.


P.S: Schicke Avatar Hintergrund Farbe, wie hast du das Hinbekommen, ist doch keine Standard 8 Bit Farbe?
 
In wie fern Marketing, ist ein höhere Basis Takt kein Argument wenn eh nicht alle 16 Kerne genutzt werden.
Das schafft ein bischen TDP Budget welches bei 12 Kerne in mehr Takt umgewandelt werden kann.
:
P.S: Schicke Avatar Hintergrund Farbe, wie hast du das Hinbekommen, ist doch keine Standard 8 Bit Farbe?
Ich hätte einfach angenommen, dass der 6+6 Kerner wie in den Specs niedriger taktet als der 8+8er, ok er hat 200MHz mehr.
Im Base für all Core ist 4.4*6 auch 20% weniger als 4.2*8.

Für simple Sachen bevorzuge ich den alten standard paint.exe, noch mehr seit dem der PNG konnte.

Doppelposting wurde automatisch zusammengeführt:

Imo wird doch momentan darüber spekuliert, dass die Messungen fehlerbehaftet sein sollen.
Yep - es waren wohl die PC-Mag Tester, die eine falsche Reihe Benchmarkergebnisse für den 7950X verwendet haben ohne es zu bemerken. Ist mir auch nicht beim drüberlesen aufgefallen.
 
Zuletzt bearbeitet:
In wie fern Marketing, ist ein höhere Basis Takt kein Argument wenn eh nicht alle 16 Kerne genutzt werden.
Das schafft ein bischen TDP Budget welches bei 12 Kerne in mehr Takt umgewandelt werden kann.
:
P.S: Schicke Avatar Hintergrund Farbe, wie hast du das Hinbekommen, ist doch keine Standard 8 Bit Farbe?
Ich hätte einfach angenommen, dass der 6+6 Kerner wie in den Specs niedriger taktet als der 8+8er, ok er hat 200MHz mehr.
Im Base für all Core ist 4.4*6 auch 20% weniger als 4.2*8.

Für simple Sachen bevorzuge ich den alten standard paint.exe, noch mehr seit dem der PNG konnte.
Das höhere Modell hat in der Regel auch den höheren Turbo Takt.
Wenn das Kürzel XT mal wieder auftaucht, dann ist es besonders gut gelaufen bei der Ausbeute. :)
 
Wenn das Kürzel XT mal wieder auftaucht, dann ist es besonders gut gelaufen bei der Ausbeute.
hätte/ könnte man wieder einführen etwa beim 5900x, nämlich beim b02 - der mindestens das Atribut xt, wenn nicht xtx verdient hätte...
leider kam der 7xxx zu schnell hinterher, sodass der sich gar nicht erst etablieren konnte (mit >5Ghz statt 4,8 Boost)
Für P/L-Rechner durchaus eine Option und eine heimliche Erfüllung dieses berechtigten Wunsches, oder?

aber ich könnte mir begründet denken das das in einem Jahr beim 7xxx ähnlich sein wird mit Neuauflage, bzw. 2nd Edition (!?)
also ggf. lieber abwarten, zumal die Preise - so es denn wirklich so weiter geht - sinken würden tendenziell, trotz Takterhöhung auf dann zu erwartende 6 GHz Boost.
 
Wenn das Kürzel XT mal wieder auftaucht, dann ist es besonders gut gelaufen bei der Ausbeute.
hätte/ könnte man wieder einführen etwa beim 5900x, nämlich beim b02 - der mindestens das Atribut xt, wenn nicht xtx verdient hätte...
leider kam der 7xxx zu schnell hinterher, sodass der sich gar nicht erst etablieren konnte (mit >5Ghz statt 4,8 Boost)
Für P/L-Rechner durchaus eine Option und eine heimliche Erfüllung dieses berechtigten Wunsches, oder?

aber ich könnte mir begründet denken das das in einem Jahr beim 7xxx ähnlich sein wird mit Neuauflage, bzw. 2nd Edition (!?)
also ggf. lieber abwarten, zumal die Preise - so es denn wirklich so weiter geht - sinken würden tendenziell, trotz Takterhöhung auf dann zu erwartende 6 GHz Boost.
Das wäre bestimmt möglich Gewesen, aber wie du selbst schon Erkannt hast, waren AMDs Entwickler schneller.
Daher lohnte es sich Zeitlich nicht, zumal man sich so eher Konkurrenz im eigenen Haus gemacht hätte.

Aber es wird für alle was dabei sein, auch bei den NoteBooks. ;)
 
Ein Hochstapler den man gerne sieht: Der AMD Ryzen 9 7950X3D im Test (HardwareLUXX)

Positiv hat uns überrascht, wie wenig Probleme wir mit dem Scheduling hatten. Der ungleiche Aufbau der beiden CCDs ist nicht zwangsläufig ein Selbstläufer. Das musste auch Intel mit der Einführung der Hybrid-Architektur feststellen. Für den Test des Ryzen 9 7950X3D mussten wir aber durch keinerlei Ringe springen. Nach der Installation des Chipsatz-Treibers lief alles so, wie sich AMD das vorgestellt hat.

Das liest sich doch sehr positiv.

Bei Hothardware gibts noch ein laengeres Video mit David McAfee, allerdings hab ich das noch nicht genau angeschaut, ob es da noch was interessantes drin gibt:

 
.. jeder nutzt genau das was er mag.
Leider kennen viele - egal ob Presse oder Anwender - nur noch schwarz oder weiß Denken. Da wird immer ganz schnell Fail geschrieen wenn es den eigenern Vorstellungen nicht entspricht.

Eine gewisse Auswahl zu haben. Wer sich vorher seinen Ansprüchen bewusst ist kann sich dann die richtige CPU für den richtigen Preis auswählen.
Ich sehe den 7900X3D da nicht als überflüssig an.
Doppelposting wurde automatisch zusammengeführt:

Ryzen 7800X3D preview - 7950X3D One CCD Disabled (guru3d)
Doppelposting wurde automatisch zusammengeführt:

AMD's Ryzen 7000X3D Install Guide Pinpoints Performance Pitfalls (tom's Hardware)

von PC GH aufgegriffen

Ryzen 9 7950X3D und Co.: Installations-Guide zeigt einige Hürden zur optimalen Performance (PC GamesHardware)
 
Zuletzt bearbeitet:
Leider kennen viele - egal ob Presse oder Anwender - nur noch schwarz oder weiß Denken. Da wird immer ganz schnell Fail geschrieen wenn es den eigenern Vorstellungen nicht entspricht.

Eine gewisse Auswahl zu haben. Wer sich vorher seinen Ansprüchen bewusst ist kann sich dann die richtige CPU für den richtigen Preis auswählen.
Ich sehe den 7900X3D da nicht als überflüssig an.
ist ja eigentlich auch so ziemlich genau das, was ich auch bestätigt habe...
und das "binäre" oder Dual-Denken fällt auch mir auf seit 3 Jahren insbesondere. ja.
 
Na ja, die Rechnung ist ja im Grunde genommen sehr einfach, solange vom Spiel nicht mehr als 6 Kerne genutzt werden kann auch der 7900X3D in die Vollen gehen aber das ist letztendlich auch sein Problem denn der 7800er verträgt dann mehr und diese Einschränkung dürfte dem Langzeitnutzen nicht gerade zuträglich sein denn auch bei den Spielen nimmt die Anzahl der effektiv genutzten Kerne zu. Auch sehe ich dafür keinen zwingenden Grund denn das Stacking erfolgt mit Sicherheit erst nachdem klar ist wieviele Kerne funktionstüchtig sind. Eine 8+4 Lösung wäre da mit Sicherheit sinnvoller gewesen aber vermutlich legte man auf den Punkt der Resteverwertung eine höhere Priorität da die gestackten 8 kernigen Chiplets primär in die Epycs gehen dürften und vermutlich lassen deshalb diese Varianten auch auf sich warten.
 
Der 7800X3D kann auch zwei teildefekte bzw. teildeaktivierte CCDs haben. Die Ausbeute ist dann so dermaßen gut, dass AMD das zweite CCD dann einfach deaktiviert um den unteren Markt bedienen zu können.
Es ist schade, dass so viele Games auf max. 8 Cores limitiert sind. Die Industrie könnte viel viel weiter sein wenn man endlich die 16 Cores richtig auslastet.
Bleibt nur zu hoffen, dass die PS6 auf 16C/32T umsteigt, damit die Masse an Games sich endlich weiterentwickelt.
 
Ich glaube kaum das man dafür die Mehrkosten für 2 gestackte Chips hinnehmen würde, zumal dann auch noch die Hälfte vom gestackten Speicher deaktiviert werden müßte um die Specs einzuhalten denn ich glaube nicht das man den Weg über ein Dummy Die gehen wird. Zu viel Aufwand und Kosten für die billigste Variante.
Die Chips werden wohl eher ungestackt verbraten.

Das mit dem fehlenden oder mangelhaften Multicore Support ist schon Thema seit mehr als ein CPU Kern zum Einsatz kommt und wird jedes mal mit dem gleichen Spruch entschuldigt. "Es ist eben nicht alles parallelisierbar." Dennoch nimmt die Anzahl der genutzten Kerne im laufe der Jahre zu und straft damit den Kern der Aussage Lüge, nämlich das es nur daran liegen würde.
Der dumme Spruch kam auch beim lausigen CPU Support des GPU Physx Fallback nur wie sollte das dann auf einem so massiv parallelisierten Chip wie einer GPU performant laufen? Womit wir wieder beim binären Denken sind.
 
Ich glaube kaum das man dafür die Mehrkosten für 2 gestackte Chips hinnehmen würde, zumal dann auch noch die Hälfte vom gestackten Speicher deaktiviert werden müßte um die Specs einzuhalten denn ich glaube nicht das man den Weg über ein Dummy Die gehen wird. Zu viel Aufwand und Kosten für die billigste Variante.
Die Chips werden wohl eher ungestackt verbraten.

Das mit dem fehlenden oder mangelhaften Multicore Support ist schon Thema seit mehr als ein CPU Kern zum Einsatz kommt und wird jedes mal mit dem gleichen Spruch entschuldigt. "Es ist eben nicht alles parallelisierbar." Dennoch nimmt die Anzahl der genutzten Kerne im laufe der Jahre zu und straft damit den Kern der Aussage Lüge, nämlich das es nur daran liegen würde.
Der dumme Spruch kam auch beim lausigen CPU Support des GPU Physx Fallback nur wie sollte das dann auf einem so massiv parallelisierten Chip wie einer GPU performant laufen? Womit wir wieder beim binären Denken sind.
Das Stimmt, aber jede Medaille hat zwei Seiten.
Weniger Multi-Core Auslastung, weniger Verbrauch der CPU im System.
Aber wenn man sich dann im VRAM der dedizierten GPU Versteckt, dann wird halt dort der mehr Verbrauch erzeugt. ;D
 
Das Stimmt, aber jede Medaille hat zwei Seiten.
Weniger Multi-Core Auslastung, weniger Verbrauch der CPU im System.
So nicht unbedingt denn wenn sich die gleiche Last auf mehr Kerne verteilen kann muss die CPU nicht so hoch takten. ;)
Es sei denn es geht darum die GPU auszubremsen damit die Grafikkarte weniger Strom frißt. *oink*
Die Renderpipeline ist bisher ja noch so aufgebaut das für jedes berechnete Bild ein gewisses Maß an Zuarbeit der CPU erforderlich ist.
Der Knackpunkt ist eher das man sich dann nicht mit CPUs mit wenigen aber singlethread starken Kernen als Gaming CPU brüsten könnte und da der Marktführer gut damit gefahren ist und die Publisher sich damit Investitionskosten sparen konnten weil der Großteil der Kundschaft damit abgedeckt werden konnte wurde in der Hinsicht auch wenig ins Multithreading investiert.
Klassisches Gegenbeispiel, die Konsolen die auf mehr aber langsamere Kerne/Threads setzten und es dennoch schafften dass das Spiel darauf performant lief.

Aktuell sind wir bei bis zu 8 Kernen die bei den PC Versionenperformant genutzt werden, also da wo wir bereits zu Zeiten des FX hätten sein sollen. Dann hätten auch die damaligen HPC Prozessoren einen echten Mehrwert gebracht.
 
Die Werte bringen einen so nicht weiter wenn die Last innerhalb des Aktualisierungsintervalls auf einen anderen kern überspringt denn dann wird am Ende des Intervalls meiner Erfahrung nach nur der jeweils anteilige Wert ausgegeben obwohl nur einer genutzt wurde.

Mal so als Beispiel den CPU Test vom Time Spy Extreme CPU Test der wohl zweifellos von der CPU limitiert wird.
Wie man sieht werden auf den ersten Blick zwar alle 32 Threads genutzt aber nicht wirklich ausgelastet obwohl lediglich die CPU limitiert.
Die Gesammtauslastung fing bei ca. 85% an und endete bei ca. 76%, was ca. 24-27 Kernen/Threads entspricht. Dabei bleibt es dann auch wenn mehr Kerne vorhanden sind denn dann fällt die prozentuale Auslastung weiter. Bei BEdarf kann ich auch nochmal einen Durchlauf mit meinem 64 Kerner machen.
1678045739563.png

Wer es noch deutlicher sehen will kann ja mal den CPU Profil Test durchlaufen lassen und dabei die Auslastung der einzelnen Kerne/Threads im Auge behalten.
DIe scharfe Abgrenzung der Thread Auslastung die manche erwarten ist auch da nicht wirklich zu sehen.
Doppelposting wurde automatisch zusammengeführt:

Da hatte ich auf dem Ripper doch glatt ein deutlich anderes Ergebnis als ich erwartet hatte.
Ich schau mir das morgen nochmal genauer an ^^
 
Zuletzt bearbeitet:
Bei den Benchmarks Test in niedriger Auflösung und mit pre DirectX 12 bin ich mit meinem 3900 XT immer im CPU Limit.
Mir ist es nur wichtig, dass die GPU Auslastung nicht absackt, und das macht sie nicht bei dem Spiel Forspoken welches ebenfall DirectX 12 nutzt.
Die GPU noch mehr auslasten bringt dann wieder nichts, weil sie dann selbst drosselt (100°C+)

Das hopping ist soweit schon gewollt, weil wenn eine Instanz auf einem Kern fix läuft, gibt es genau dort auf lange Sicht ein HotSpot.
Durch das wandern der Threads wird verhindert, das ein Thread ununterbrochen auf einem Kern durch läuft, dadurch hast weniger Hot-Spots also mehr Boost Takt. ;)
 
Der Punkt mit der Hotspot Temperatur ist eher für das Boost Verhalten relevant um wenige MHz mehr aus den Kernen rauszuquetschen und das auch nur weil es nicht fähig ist alle Kerne/Threads gleichzeitig zu nutzen denn wenn das nicht so wäre könnte man die Prozessoren nicht bei Vollast betreiben.

In nierdrigen Auflösungen und Bildeinstellungen rauscht das Spiel nur deshalb in dessen CPU Limit weil ganz einfach die Grafikkarte nicht stark genug belastet wird und damit die Bildrate vor allem durch die genutzte Rechenleistung der CPU limitiert wird. Ist die Gesammtauslastung der CPU dann nichtmal annähernd an der 100% Marke bleibt ganz einfach Rechenleistung durch mangelhaftes Multithreading des Spiels ungenutzt liegen und in dem Szenario führt derjenige die Benchmarks an der genug Kerne hat um die vom Spiel gleichzeitig genutzten Threads abzudecken um die Leistung eines Kerns nicht mit SMT aufzuteilen und wo diese Kerne möglichst schnell sind. Die Gesammtleistung der CPU ist dafür also ganz einfach irrelevant.

Das sah man insbesondere zum Bulldozer Zeiten extrem wo der FX-8 gegen Intels 4 kernigen i5 und i7 abstank, der FX-4 und die APUs aber sehr wohl gegen den i3 mit 2 Kernen und SMT behaupten konnten. Entsprechende Spiele nutzten ganz einfach nicht mehr als 4 Threads gleichzeitig weshalb der i3 die Leistung der 2 Kerne auf 4 Threads aufteilen mußte und AMDs 4 Kerner ihre Leistung voll entfalten konnten. der i5 und i7 konnten wiederum alle 4 Kerne nutzen während der FX-8 nur auf halber Kraft fahren konnte. Das der i7 nicht alle Threads entfalten konnte war wiederum wohl eher kaum relevant, hauptsache die Konkurrenz kann nicht gleich ziehen und man kann so hohe Hardware Preise sichern. Das ist das Problem wenn Optimierungsarbeit auf die Hardware Hersteller ausgelagert wird. Die optimieren wohl primär im eigenen Sinne.
 
gow41080pfx8370cdsp4.png
Klassiker für Multi-Core bzw. Multi-Thread Auslastung vom feinsten mit dem AMD FX-8370 + FuryX.
 
Zurück
Oben Unten