Kaveri - der Trinity Nachfolger

Das ist eben Phoronix. Das wirkt immer so lieblos hingeklatscht. Masse statt Klasse.
 

Mich würde total interessieren, wie stark sich der NB-Takt auf die Performance (spezial igpu) auswirkt.

Könntest du versuchen, den NB-Takt zu erhöhen und vorher/nachher Benchmarks machen?

Wie hoch ist beim Kaveri der default NB-Takt? Irgendwo habe ich 1800Mhz gesehen, was weniger als beim Richland wäre...

Wäre spannend, ob man NB 2400 / HT 2400 / Ram 2400 oder sogar 2600 / 2600 / 2600 schafft und wie hoch sich diese Übertaktung bei gleichem CPU / GPU Takt im vergleich zu default auf die Performance auswirkt.

Könnte mir vorstellen, dass das durchaus einiges bringen könnte....
 
Zuletzt bearbeitet:
Hallo Leute.

Ich lasse ebenfalls CPU Benchmarks mit der Phoronix Suite laufen mit den Ergebniss das der A10-7850K etwa gleichauf mit einen Athlon II (Propus- kein L3 Cache) @ 3700 mhz liegt.
Der Propus wird von einen Thermalright Macho gekühlt. Leistungsaufnahme der Propus CPU unter Vollast: ca 140 Watt da die Spannung 1,43 Volt betragen muss.

C-ray Propus OC : 39,50 sec
C-ray Kaveri 7850K: 40,18 sec

Timed Linux Kernel Compilation Propus OC: 156,22 sec
Timed Linux Kernel Compilation Kaveri: 163,14 sec

x264 Propus OC: 75,84 fps
x264 Kaveri: 94,05 fps
 
Du hast linux auf dem System? Unter Windows habe ich noch nie die Tests zum laufen gebracht.
 
Hallo Leute.

Ich lasse ebenfalls CPU Benchmarks mit der Phoronix Suite laufen mit den Ergebniss das der A10-7850K etwa gleichauf mit einen Athlon II (Propus- kein L3 Cache) @ 3700 mhz liegt.
Der Propus wird von einen Thermalright Macho gekühlt. Leistungsaufnahme der Propus CPU unter Vollast: ca 140 Watt da die Spannung 1,43 Volt betragen muss.

C-ray Propus OC : 39,50 sec
C-ray Kaveri 7850K: 40,18 sec

Timed Linux Kernel Compilation Propus OC: 156,22 sec
Timed Linux Kernel Compilation Kaveri: 163,14 sec

x264 Propus OC: 75,84 fps
x264 Kaveri: 94,05 fps
Nicht schlecht, dann hat AMD durch die bessere IPC trotz CMT mit einem Modul (AMD sprach von 80% Performance im Vergleich zu nativen Dual-Core) wieder K10-Niveau erreicht.
 
Kurz ne Frage, Bei AMD nutzt er scaling govenor: acpi-cpufreq ondemand und bei Intel Performance sollte man nicht bei beiden das gleiche einstellen dmit jeweils die maximale Leistung herauskommt? Hab keine Ahnung von linux.

Wenn man bei Kaveri die Leistung auf Performance setzt taktet die GPU nicht mehr so hoch, weil das TDP-Limit erreicht wird. Insofern dürften die AMDs mit ondemand mehr GPU-Leistung bringen. Warum die dann bei Intel nicht auch ondemand getestet haben lässt sich nur mutmaßen, dass die Tests schon vorher durchgelaufen sind, bevor die AMD-Samples da waren.
 
bump!

Mich würde total interessieren, wie stark sich der NB-Takt auf die Performance (spezial igpu) auswirkt.

Könntest du versuchen, den NB-Takt zu erhöhen und vorher/nachher Benchmarks machen?

Wie hoch ist beim Kaveri der default NB-Takt? Irgendwo habe ich 1800Mhz gesehen, was weniger als beim Richland wäre...

Wäre spannend, ob man NB 2400 / HT 2400 / Ram 2400 oder sogar 2600 / 2600 / 2600 schafft und wie hoch sich diese Übertaktung bei gleichem CPU / GPU Takt im vergleich zu default auf die Performance auswirkt.

Könnte mir vorstellen, dass das durchaus einiges bringen könnte....

1) Lässt sich der Speicherkontroller separat übertakten? Wie wirkt sich dies auf die Performance bei hohen CPU-Taktraten aus? (Man denke an die 3-5% Performance-Zuwachs bei Sandy-Bridge allein durch den höher getakteten MC).

2) Wie weit skaliert die GPU-Performance in Spielen mit dem Arbeitsspeicher? Im Bereich von DDR3-2400 bis DDR3-3000 wird es erst richtig spannend!
 
Frag am besten gleich auch noch warum der i7 3770 bei Unigine Tropics v1.3 schneller sein kann als alle Haswells da stimmt was mit dem GPU Turbo oder Treiber nicht. Oder aber das Ergebnis vom 3770 ist schlicht falsch. Die HD 4000 mit weniger GPU Turbo Takt sollte auf keinen Fall schneller sein als die HD 4600 mit höherem takt und 4 EUs mehr.

Sorry, aber ich war gestern nach meinem Post nicht mehr beim Computer. Hab ich jetzt gerade eben gemacht.

Habe ich mich versucht, über 'intel_pstate' schlau zu machen und der Beschreibung nach sollte "powersafe", das Gegenstück von "ondemand" bei 'apci_cpufreq' sein, wobei das nur in einer mailing list steht, ein Wiki Eintrag zu den Einstellungen von 'intel_pstate' konnte ich nicht finden.

Nein, das ist falsch. powersave = die CPU verwendet immer den minimalen Takt. Dieser governor wird hauptsächlich dann verwendet wenn nur mehr 5% / 10% Akku hat.

Die zeitbasierten CPU Performance/Watt Diagramme sind alle falsch mMn.

Die Rechnen da Perf./Watt = Watt / Dauer_des_Benchmarks. Das ist Blödsinn, denn ein System mit doppelten Verbrauch und gleicher Benchdauer hätte demnach doppelte Perf./Watt-Punkte *buck*

Richtig wäre hier Perf/Watt = (1/Dauer) / Watt.

Hab mich schon gewundert wie ein I3 4310 im Linux-Compile Bench früher fertig werden kann als der A10, dabei ein drittel weniger verbraucht, aber ein schlechteres Perf/Watt haben kann *buck*

Bzgl. dessen ist auch im phoronix Forum eine "Menge" los. Sie haben im phoronix Forum eine andere Grafik aufgestellt, die aussagekräftiger wäre: http://phoronix.com/forums/showthre...att-On-Ubuntu-14-04-Linux&p=390150#post390150

---------- Beitrag hinzugefügt um 13:39 ---------- Vorheriger Beitrag um 13:27 ----------

Frag am besten gleich auch noch warum der i7 3770 bei Unigine Tropics v1.3 schneller sein kann als alle Haswells da stimmt was mit dem GPU Turbo oder Treiber nicht. Oder aber das Ergebnis vom 3770 ist schlicht falsch. Die HD 4000 mit weniger GPU Turbo Takt sollte auf keinen Fall schneller sein als die HD 4600 mit höherem takt und 4 EUs mehr.

Gleich auch eine Antwort diesbzgl. bekommen:

dr4go schrieb:
Also how is it possible, that in Unigine Tropics v1.3 the i7 3770 is faster than any of the Haswells? Could it be, that there is something wrong with the gpu turbo or the Haswell driver?
Haswell graphics regressed in kernel 3.13 (I think), so that's why all Haswell CPUs have lower performance than Ivy Bridge in terms of graphics, even though it should be the other way around. There were already some articles stating that, but no explanation why it happens.
 
Bzgl. dessen ist auch im phoronix Forum eine "Menge" los. Sie haben im phoronix Forum eine andere Grafik aufgestellt, die aussagekräftiger wäre: http://phoronix.com/forums/showthre...att-On-Ubuntu-14-04-Linux&p=390150#post390150


Das Thema Leistungs- und Energiemessung hatten wir in diesem Forum auch schon breit und deutlich, z.B.:

http://www.planet3dnow.de/vbulletin...y-Nachfolger?p=4837034&viewfull=1#post4837034
http://www.planet3dnow.de/vbulletin...y-Nachfolger?p=4836992&viewfull=1#post4836992
Darstellung-der-spezifischen-Leistungsaufnahmen-in-Artikeln

Solange Kompilieren nicht über die Shader ausgeführt werden kann, (was sich vom Programmieraufwand für den Kompiler wohl kaum lohnen würde) bleibt AMD in dieser Disziplin/Bench wohl ein gutes Stück weit zurück. Die Fertigung (ggü. FinFet, GateLast) schlägt im Energiebudget dann nochmals oben drauf. Zumindest nähern wir uns ehrlicher Testmethodik.
 
Abgesehen davon, sind die meisten Compiler ehh schlecht programmiert - bisher hatte, von den von mir verwendeten Programmen, nur Turbo Pascal und die ersten paar Delphi Versionen von Borland einen wirklich schnellen Compiler - jedenfalls im Vergleich zu allen C/C++-Compilern zu ihrer Zeit.
 
Das Thema Leistungs- und Energiemessung hatten wir in diesem Forum auch schon breit und deutlich, z.B.:

http://www.planet3dnow.de/vbulletin...y-Nachfolger?p=4837034&viewfull=1#post4837034
http://www.planet3dnow.de/vbulletin...y-Nachfolger?p=4836992&viewfull=1#post4836992
Darstellung-der-spezifischen-Leistungsaufnahmen-in-Artikeln

Solange Kompilieren nicht über die Shader ausgeführt werden kann, (was sich vom Programmieraufwand für den Kompiler wohl kaum lohnen würde) bleibt AMD in dieser Disziplin/Bench wohl ein gutes Stück weit zurück. Die Fertigung (ggü. FinFet, GateLast) schlägt im Energiebudget dann nochmals oben drauf. Zumindest nähern wir uns ehrlicher Testmethodik.
Schon aber das der 28nm A10 auch nicht gegen einen alten 32nm Sandy I3 in sachen Leistung*Zeit anstinken kann, verwundert mich etwas, wobei der 45Watt Kaveri sähe wohl besser aus. Schade das da keiner dabei war bei dem Test.
 
gibt es einen nutzen für mich als zocker von BF4 & WOT von einem 3,8 ghz X4 auf einen Kaveri umzusteigen ? meine grafik karte von 2010 ist jedenfalls schneller als die igpu.
 
Dann wohl ehr nicht ;) Der A10 7850k sollte in den meisten Anwendungen etwa gleich gut abschneiden. Der einzige Vorteil wäre weniger Stromverbrauch und eine Moderne Plattform.
 
wenn man bedenkt das excavator erst 2015 kommt, und dieser wohl erst das erste lohnende upgrade vom X4 BE sein wird, ist das schon traurig.
intel war 2009 ja noch auf der core 2 architektur unterwegs. wenn man sich anschaut was die bis heute für sprünge hingelegt haben
core 2 -> nehalem -> sandy -> ivy (8% ipc immerhin) -> Haswell und dann kommt dieses jahr noch der haswell refresh Broadwell in 14nm.

also wenn ich diesen herbst/winter aufrüsten möchte, habe ich die wahl zwischen quasi gleicher leistung bei weniger stromverbrauch von amd, und viel mehr leistung bei weniger stromverbrauch von intel.

ich als AMD fan und intel verneiner entscheide mich sehr ungern für intel.... sehr blöd zz für zocker wie mich.

und kommt mir nicht mit nem vishera 3 oder 4 moduler :D hab nur eine luftkühlung und die verbrauchen mir bei OC viel zu zuviel und world of tanks benötigt eh nur einen kern.
 
gibt es einen nutzen für mich als zocker von BF4 & WOT von einem 3,8 ghz X4 auf einen Kaveri umzusteigen ? meine grafik karte von 2010 ist jedenfalls schneller als die igpu.

Das ist dann wohl eine Frage der Software und des Glaubens an die Zukunftsfähigkeit der Features (z.B. TrueAudio) und der langfristigen Strategie von AMD (v.a. Entlastung reiner CPU-Berchnungen hin zu HSA).



Dr@ schrieb:
Zudem wurde eine Demo für eine alternative Kooperation zwischen dem Grafikteil einer APU und dedizierter Grafikkarte (dGPU) gezeigt. AMD nutzte darin offenbar die APU für die physikalischen Berechnungen der Grassimulation, was höchstwahrscheinlich auf TressFX 2.0 basiert, während die dGPU das eigentliche Rendering übernimmt. DiePhysikberechnungen sollen auf der APU dank HSA besonders effizient umsetzbar sein. Es ist zudem anzunehmen, dass AMD für diese Demo die hauseigene Mantle-API verwendet, da hier alternative Möglichkeiten zur Kooperation zweier GPUs bereits vorgesehen sind.
 
Nein, das ist falsch. powersave = die CPU verwendet immer den minimalen Takt. Dieser governor wird hauptsächlich dann verwendet wenn nur mehr 5% / 10% Akku hat.

Quelle? Irgend eine haltbare Intel Quelle, zu intel_pstate powersafe =! acpi_cpufreq powersafe ist nicht gleichwertig soweit. Die Eien CPU im CPU Kerne vergleich mit acpi_cpufreq Ondemand gegen eine mit intel_pstate Performence zu Benchmarken macht kein Sinn, da man gut davon ausgehen kann das nicht im gleiche Sinne die Taktrate der CPU gesteuert wird.
Nach den Phoronixbenchmarks sieht es nicht so aus, da die perfromance unter Intel mit powersave anscheinend dem von performance entspricht, und powersave eigentlich die Standardeinstellung sein soll. http://openbenchmarking.org/result/1312136-SO-LINUX313C65 nur dann Frage ich mich wieso Michael das manuell auf Performence setzt. https://lists.01.org/pipermail/powertop/2013-September/000956.html
EDIT link zu powersafe ist nicht powersafe http://www.spinics.net/lists/cpufreq/msg08301.html

---------- Beitrag hinzugefügt um 17:38 ---------- Vorheriger Beitrag um 17:35 ----------

Warum die dann bei Intel nicht auch ondemand getestet haben lässt sich nur mutmaßen, dass die Tests schon vorher durchgelaufen sind, bevor die AMD-Samples da waren.
Nein, beim verwendeten intel_pstate gibt es onemand nicht, wieso man das aberr auf Performance stellt ist nicht klar.
 
Zuletzt bearbeitet:
Gleich auch eine Antwort diesbzgl. bekommen:


Haswell graphics regressed in kernel 3.13 (I think), so that's why all Haswell CPUs have lower performance than Ivy Bridge in terms of graphics, even though it should be the other way around. There were already some articles stating that, but no explanation why it happens.

Laut Ubuntu Form kann eine Einstellung bei Intel Systemen auf "Performance" (höchster CPU P State) verhindern das gleichzeitig der GPU Turbo aktiv wird. Das könnte zumindest die schwachen Haswell Ergebnisse im Grafikbenchmark erklären wenn das den stimmen sollte und die Haswell iGPU hier anders reagiert als die von Ivy Bridge die ja offenbar ihren Turbo Trotzdem korrekt genutzt hat. Ansonsten schon mal danke fürs nachfragen ;)
 
Jetzt radeon vs catalyst benchmarks unter linux. http://www.phoronix.com/scan.php?page=article&item=amd_kaveri_opensource&num=1

Wobei bei Kaveri DPM eigentlich nicht aktiviert ist, und nicht erwähnt ist, dass es manuell eingrstellt wurde ist es wohl ohne getestet.
So wie ich das mitbekommen habe, beim einwenig mitverfolgen von der mesa dev list und den Linux Pull request von alex deuchter, kommt dpm für Kaveri frühestens mit Linux 3.14 standardmässig, im pull request von 3.13 war Kaveri nicht erwähnt und damit wohl nicht vorhanden. Könnte es nicht sein wenn DPM nicht funktioniert, das Kaveri nicht in den Turbostate geht oder geht das auch ohne GPU dpm?

Da mit dpm die Leistung unter dem offenen Treiber stark steigt, sieht der Benchmark mit ca. 1/4 der Performenc von Catalyst erstmal nicht schlecht aus.

bridgman im phoronixforum zum radeon test

Originally Posted by schmidtbag
I was thinking the same thing. There must be some DPM issue, these numbers just don't seem right. They're pretty poor even for the 3.12 kernel.
D'oh !! (unless agd5f tells me I'm wrong). Just checked the code in radeon.pm -- looks like DPM is off by default for Kaveri in 3.13, enabled by default in 3.14.

EDIT -- after re-reading Michael's article I didn't see any mention of DPM being forced on (the "enable DPM on CI APUs" patch was Dec 24 and was at the front of 3.14-next rather than the end of 3.13-fixes, which makes sense in hindsight) so that's probably the reason for the slower-than-expected performance.

Hopefully Michael hasn't taken the benchmark setup apart yet
Just a quick caution -- agd5f's drm-next-3.14 branch contains the "make it work well enough that it's safe to enable by default" patches, not just the "enable by default" patch.

Good news is that the benchmark numbers don't seem out of line considering that the Kaveri was probably running without DPM.
 
Zuletzt bearbeitet:
also wenn ich diesen herbst/winter aufrüsten möchte, habe ich die wahl zwischen quasi gleicher leistung bei weniger stromverbrauch von amd, und viel mehr leistung bei weniger stromverbrauch von intel.

ich als AMD fan und intel verneiner entscheide mich sehr ungern für intel.... sehr blöd zz für zocker wie mich.


du ignorierst einen wichtigen punkt: den anschaffungspreis
und die alles eintscheidende frage: brauche ich die intel-leistung überhaupt oder liefert nicht amd bereits mehr als genug leistung?

aus meiner sicht kauft man bei intel in erster linie nicht benötigte bzw nicht abrufbare leistung. wenn ich sehe, wie bei mir zu hause oder im büro die cpus den lieben langen tag däumchen drehen... selbst kabini....

Selbst PCGH schreibt:

"Zieht man vergleichbare Desktop-Modelle der Konkurrenz, dreht Kaveri in der Gaming-Leistung wahrhaft Kreise um die Intel-"APUs": Im gewichteten Spiele-Index von PC Games Hardware ist der A10-7850K rund zwei Drittel schneller als Intels Core i5-4670K; selbst den mehr als dreimal so teuren, nicht für den Desktop verfügbaren i7-4950HQ hält die AMD-APU im Fernduell noch in Schach."

http://www.pcgameshardware.de/A10-7...10-7850K-Spiele-Tests-Benchmarks-APU-1104954/

ich bin sehr beeindruckt!
 
Zuletzt bearbeitet:
PCGH bezieht sich auf die iGPU-Leistung, nicht die CPU. Ein Haswell i3-4130 ist in den allermeisten Anwendungen und vor allem in Spielen schneller als ein 7850K und dabei günstiger (auch im Unterhalt). Es gibt diverse Spiele, bei denen ein AMD-Chip wie ein 7850K nicht "mehr als genug Leistung" liefern, sofern man mindestens 45 fps ansetzt um die Grafikkarte nicht auszubremsen. Für Spieler interessant sind die FX-63x0 und ansonsten die Vierkerner unter 100 Euro, da Intel hier nur zwei Kerne liefert. Ab 150 Euro (i5-4440) liefert Intel die beste Spieleleistung - auch pro Euro.

EDIT
Besagte Vierkerner, neben den Athlon II X4 vor allem die APUs, finde ich für Low-Budget-Systeme klasse. Der A8-7600 etwa hat mich überzeugt als HTPC mit (Casual) Wohnzimmer-Gaming.
 
Zuletzt bearbeitet:
Quelle? Irgend eine haltbare Intel Quelle, zu intel_pstate powersafe =! acpi_cpufreq powersafe ist nicht gleichwertig soweit. Die Eien CPU im CPU Kerne vergleich mit acpi_cpufreq Ondemand gegen eine mit intel_pstate Performence zu Benchmarken macht kein Sinn, da man gut davon ausgehen kann das nicht im gleiche Sinne die Taktrate der CPU gesteuert wird.
Nach den Phoronixbenchmarks sieht es nicht so aus, da die perfromance unter Intel mit powersave anscheinend dem von performance entspricht, und powersave eigentlich die Standardeinstellung sein soll. http://openbenchmarking.org/result/1312136-SO-LINUX313C65 nur dann Frage ich mich wieso Michael das manuell auf Performence setzt. https://lists.01.org/pipermail/powertop/2013-September/000956.html
EDIT link zu powersafe ist nicht powersafe http://www.spinics.net/lists/cpufreq/msg08301.html
[...]


Was für ein Namenschaos... ;) Da muss ich mich entschuldigen, ich hatte bisher ausschließlich den acpi-cpufreq Treiber am laufen und deshalb stützte sich mein Wissen darauf (will heißen: meine letzte Aussage ist offensichtlich falsch). Ein weiterer Link (http://www.reddit.com/r/linux/comments/1hdogn/acpi_cpufreq_or_intel_pstates/, der deine Aussage bestätigt und sogar etwas weitergeht:
"[...]
also ignore the 'governor' if you have intel_pstate in /sys/devices/system/cpu/cpu0/cpufreq/scaling_driver
[...]"

Auch interessant ist ein governor Vergleich auf phoronix: http://www.phoronix.com/scan.php?page=news_item&px=MTM3NTI

Laut Ubuntu Form kann eine Einstellung bei Intel Systemen auf "Performance" (höchster CPU P State) verhindern das gleichzeitig der GPU Turbo aktiv wird. Das könnte zumindest die schwachen Haswell Ergebnisse im Grafikbenchmark erklären wenn das den stimmen sollte und die Haswell iGPU hier anders reagiert als die von Ivy Bridge die ja offenbar ihren Turbo Trotzdem korrekt genutzt hat. Ansonsten schon mal danke fürs nachfragen ;)

Nichts zu danken. :)
 
Was willst du mir sagen? PCMark8 v2 nutzt stark die GPU ... wie realistisch dies aus persönlichem Standpunkt ist, muss jeder selbst entscheiden.

EDIT
Futuremark sagt: "Accelerated mode allows workloads to use OpenCL acceleration, anticipating the way software will work in the future."

PCMark8 ist ein breiter Anwendungsmix den ich einmal "Accelerated" fahren kann und einmal konventionell. Der Mix sind gängige Anwendungen von Adobe, Microsoft, etc. Accelerated, dieser Pfad steht mir heute! zur Verfügung, nicht erst im Jahr 2020. Adobe hat in den letzten Monaten mächtig daran gearbeitet und den OpenCL-Implementierungen einiges an Feinschliff zukommen lassen. Mit 14.1 werden die roten Balken noch ein gutes Stück länger werden.

Intel baut gute CPUs die auf dem konventionellen Pfad hervorragende Ergebnisse erzielen. Aber die allgemeine Aussage das Intel die performanteren CPU bietet und AMD die lahmen Enten, stimmt einfach nicht mehr. OpenCL ist längst in der Praxis angekommen. Letztlich zählt was hinten rauskommt.
 
@Dr4go

Kein Problem, muss dich nicht dafür entschuldigen. I hab es auch erst gesehen, als ich das ganze nach der ganzen Einstellung, gesucht habe, scheint auch noch nicht all zu alt zu sein das Ding. Vielleicht war auch mein Beitrag einwenig agressiv geschrieben, wenn ich in jetzt so durchlese, das war nicht absicht falls das so rübergekommen ist, Entschuldige ich mich dafür. :-[
Leider sagt der Vergleich bei Phoronix nicht, ob das auswirkung auf die GPU Werte von intel CPU hat, bei Haswell, die scheint ja einwenig bescheiden im Kaveri Test.
 
Zurück
Oben Unten