News Hermitage Akihabara zeigt Cinebench-R15-Werte für Kaveri-APU A10-7850K

Dr@

Grand Admiral Special
Mitglied seit
19.05.2009
Beiträge
12.791
Renomée
4.066
Standort
Baden-Württemberg
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
Die japanische Seite Hermitage Akihabara hat Bilder einer A10-7850K APU aus der 47. Kalenderwoche veröffentlicht und bestätigt zudem die bereits durchgesickerten technischen Daten der neuen Kaveri-APUs. Demnach soll das Spitzenmodell A10-7850K mit offenem Multiplikator ab Werk über einen Basistakt von 3,7 GHz und einen Turbo bis 4,0 GHz verfügen.
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Irgendwie Ernuechternd
Wenn das alles so hinkommt - ist das Ergebnis zumindest fuer Cinebench, wenn es denn stimmt - doch eher ernuechternd....fast niederschmetternd... (wie alt ist Phenom II noch mal?).
Das Moduldesign - zumindest in dieser Umsetzung - wird fuer AMD nicht die Butter vom Brot ziehen koennen im CPU Bereich. Mann, Mann.

//Was ist denn nun von MultiCore und der durch das Moduldesign erkaufte Platzersparniss geworden?
Klingt manch mal so wie das 'Verkaufsargument nativer Quadcore' bei Barcelona.... //

Aber Cinebench ist nicht alles... aber es sollte eigentlich sichergestellt sein, dass ein 'ueblicher Benchmark' fuer ein Produkt aus dem Jahre 2014 - das Ergebnis fuer das eigene Produkt etwa im gleichem Segment aus dem Jahre 2009 deutlich ueberfluegelt...zumal 3,4 Ghz noch nicht die hoechste Ausbaustufe vom X4 darstellt...
(Bitte nun wieder alle auf Cinebench schimpfen ..und jeder kann die APU Argumente erst mal fuer sich behalten - auch bitte das Argument 'Leistung reicht' doch).

Die CPU Leistung wird - dem Anschein nach - fuer das 'Topmodell' eher bescheiden sein (auch wenn Cinebench nicht das Mass aller Dinge ist)...bleibt fast nur noch der Stromverbrauch..... und die APU Faehigkeiten, die IGPU...
Sprich es gibt noch genug andere Stellen...wo AMD punkten kann... und es ist bisher auch nur ein Benchmark - wer weiss schon genau, welcher Takt an lag etc.

So aber, sieht es irgendwie mau aus...und die Preisgestaltung wird sich auch nicht ganz so nach AMDs Vorstellung durchsetzen lassen IMHO.

just my2cents,
TNT
 
Zuletzt bearbeitet:
@TNT
Da es eben nur Cinebench war, kann man schon noch hoffen, dass es in anderen Benchmark ganz anders aussieht, da diesem bekanntlich oft FPU Lastigkeit nachgesagt wird und somit über Integer-Anwendungsfelder vermutlich kaum bis gar nichts aussagt. Abwarten...

LG
 
@TNT
Da es eben nur Cinebench war, kann man schon noch hoffen, dass es in anderen Benchmark ganz anders aussieht, da diesem bekanntlich oft FPU Lastigkeit nachgesagt wird und somit über Integer-Anwendungsfelder vermutlich kaum bis gar nichts aussagt. Abwarten...

LG

Richtig - die Hoffnung stirbt zuletzt. Aber mal ehrlich - wenn es denn stimmen sollte - wie kann denn ein vier Jahre altes Produkt - ein aktuelles schlaegt... (und das beim Kaveri Topmodell) ...diese Spanne sind doch nahezu Welten in der CPU Entwicklung.... und dass auch wenn man das Moduldesign klassisch als FPU schwach bezeichnet...
Aber wie ich selbst geschrieben habe, betrifft es nur diesen Bench...der nun mal ein Referenzbench z.Z. darstellt...
Andere Dinge moegen anders aussehen... aber es sieht nicht so aus als ob man (abgesehen von IGPU und den besondere APU Faehigkeiten) sich wesentlich von Richland 6800K im CPU Part absetzen wird koennen IMHO.

Hope the best and fear the worst!

TNT
 
Zuletzt bearbeitet:
Richtig - die Hoffnung stirbt zuletzt. Aber mal ehrlich - wenn es denn stimmen sollte - wie kann denn ein fast vier Jahre altes Produkt - ein aktuelles schlaegt... (und das beim Kaveri Topmodell) ...diese Spanne sind doch nahezu Welten in der CPU Entwicklung.... und dass auch wenn man das Moduldesign klassisch als FPU schwach bezeichnet...
Aber wie ich selbst geschrieben habe, betrifft es nur diesen Bench...der nun mal ein Referenzbench z.Z. darstellt...
Andere Dinge moegen anders aussehen... aber es sieht nicht so aus als ob man (abgesehen von IGPU und den besondere APU Faehigkeiten) sich wesentlich von Richland 6800K im CPU Part absetzen wird koennen IMHO.

Hope the best and fear the worst!

TNT
Der Phenom II X4 955 mit dem ich den Bench (84/331) gemacht hab stammt aus 6 2009 und verwendet langsamen DDR3 1333 Speicher :P ist also schon deutlich über 4 Jahre alt (hat damals nur 169 Euro gekostet ist also circa die Preisklasse des kommenden A10 7850k). Spätestens gegen den Phenom II X6 aus 2010 sieht der Kaveri in Sachen CPU Performance einfach nur schwach aus. Mag sein das die Leistung für die Meisten Anwender ausreicht und das das Featureset und die Energieeffizienz mittlerweile besser sind aber eine Enttäuschung ist das wohl trotzdem. Sicherlich wird es Benchmarks geben bei denen Kaveri schneller ist aber Cinebench, H264, Photoshop und Ältere schlecht Optimierte Spiele wie WoW oder StarCraft II sind z.b. durchaus Praxisrelevant für viele Anwender.

Cinebench ist Rendering und ehr Float Lastig Testet aber nicht nur die FPU und ja der A10 6800k ist Multithreaded minimal schneller als der Leak zum A10 7850k kann aber sein das Kaveri effizienter ist, da hoffe ich noch etwas drauf. Best Case währe wohl eine Super Tolle iGPU die dank HSA nicht zu sehr unter der Speicherbandbreite leidet und mit einer GeForce GT 640 oder Radeon HD 7730 mithalten kann und eine unerwartet Hohe Energieeffizienz.

Ich hoffe etwas darauf das eine der Seiten die Tests zu Kaveri erstellt einen alten Phenom II X4 oder X6 oder Meinetwegen auch Core i5 760 oder i7 860 in den Test integriert damit man einen vergleich hat wie wenig die CPU Leistung im Desktop Markt in den letzten x Jahren tatsächlich verbessert wurde (abgesehen von Sockel 2011) und wie wenig ein Upgrade von einem Älteren Phenom II X4 oder Core i5 Prozessor zu einem A10 vielen Anwendern Tatsächlich bringen würde.
 
Zuletzt bearbeitet:
Der Phenom II X4 955 mit dem ich den Bench (84/331) gemacht hab stammt aus 6 2009 und verwendet langsamen DDR3 1333 Speicher :P ist also schon deutlich über 4 Jahre alt (hat damals nur 169 Euro gekostet ist also circa die Preisklasse des kommenden A10 7850k). ...H264, Photoshop und Ältere schlecht Optimierte Spiele wie WoW oder StarCraft II sind z.b. durchaus Praxisrelevant für viele Anwender.

... Best Case währe wohl eine Super Tolle iGPU die dank HSA nicht zu sehr unter der Speicherbandbreite leidet und mit einer GeForce GT 640 oder Radeon HD 7730 mithalten kann und eine unerwartet Hohe Energieeffizienz.

Ja, gerade deswegen passt der Vergleich zum X4 besser als zum X6 - auch wenn er ein relevanter Gegner waere....
HSA, IGPU und Effizienz koennten trumpfen - aber das steht in den Sternen....aber der CPU Teil scheint noch nicht der Wurf zu sein, den AMD braucht.
Aktuelle HSA Software und die TDP von 95 Watt lassen aber da fuer ebenfalls nichts Gutes hoffen...

Vorallem wenn der CPU Teil im Topmodell nicht trumpfen kann - sind die Modelle unter der 7850K noch weniger schlagkraeftig (und warum wird der 7700K schon in der IGPU beschnitten - schliesslich hat sie auch eine TDP 95 (auch wenn es eine mit 65 TDP geben soll!?))

TNT
 
Aber mal ehrlich - wenn es denn stimmen sollte - wie kann denn ein vier Jahre altes Produkt - ein aktuelles schlägt... (und das beim Kaveri Topmodell) ...diese Spanne sind doch nahezu Welten in der CPU Entwicklung.... und dass auch wenn man das Moduldesign klassisch als FPU schwach bezeichnet...
Aber wie ich selbst geschrieben habe, betrifft es nur diesen Bench...der nun mal ein Referenzbench z.Z. darstellt...

Ich weiß du willst das nicht hören, doch du musst eine APU auch als solche sehen. Klar du kannst über Steamroller Cores spekulieren, besonders wenn es dann um reine FX bzw Athlon II x4 geht, die keine IGP haben. Doch eine moderne CPU zeichnet sich durch mehr als nur IPC aus. Jeder der sich ein bisschen mit digitale Systeme auskennt weiß, was man alles auch durch instrction sets ect erreichen kann. Es kommt aber bei solchen Netzwerke, die keine Schaltwerke sind eben darauf an, ob der Programmierer diese auch nützt. Und in meinen Augen macht AMD momentan das einzig Richtige. Einen gesunden weitergang. Das heißt lieber solche Produkte auf den Markt bringen, die sie auch verkaufen können. Das heißt Produkte die der OEM-Partner trotz Rabatte durch Intel trotzdem eine AMD APU für ihr Produkt nehmen.
Da AMD jetzt mit einer neuen APU und viel Software daherkommt, können Firmen, wie zum Beispiel Samsung, ein schmales Notebook bauen, eventuell sogar durch die Radeon GPU ein Game Bundle und durch Mantle mehr Performance rausholen, als die Konkurrenz das mit seiner IGP schaffen könnte.
Somit momentan liegt der Schlüssel teils mehr in der Software und eben in Techniken, wie HSA, instrcution Sets ect. Bulldozer hat aber damals dadurch gekrankt, da eben genau wegen solchen allten Programmen, wofür Cinebench quasi ein toller Stellvertreter ist, die Vorteile des FX nicht mal ansatzweise ausnützen konnte.

Das ist so, also ob der Intel und der AMD Prozessor unterschiedliche Bereifung hätte und eine Straße quasi sich nur auf das Profil des Intel Prozessor festgelegt hat. Was macht also AMD, sie schaffen Umgebungen, wo Intel keinen Einfluss hat und die sich vermarkten lassen. Dank den Konsolen und der Mantel API hat AMD neue Chancen, auch im Tablet Market sich einen neuen Ruf als Gaming-Hardware Ausstatter zu etablieren. Ich hoffe nur, AMD's Marketing versaut es nicht, doch seit der Vorstellung der neuen R9 merkt man, AMD ist wesentlich aggressiver geworden, scheinbar haben sie sich etwas von NV abgeschnitten.

Übrigens, war es irwie klar, dass die FPU nicht sonderlich besser wird, immerhin, soll ja Verbesserungen seitens der FPU soviel ich weiß erst bei Excavator kommen. Hier soll die FPU ja erstmals mit deren ATI/AMD GPU Tool entworfen worden sein. Bei Steamroller liegt der Fokus doch bei Sprungbefehlen, besseres Front-End besseres füttern der Cores ect. Also hauptsächlich bei FETCH-Anwendungen (hoffe ich irre mich nicht, freue mich auf Verbesserungen !).
Doch wichtiger ist ja, dass die Prozessoren nicht bei theoretischen Bench gut abschneiden (Intel Prozessoren sollen ja von instruction sets in CB profitieren), sondern dass wir in realen Anwendungen ausgewogene Werte bekommen. Was wäre, wenn AMD uns bescheißen würde ? Hättest du lieber, AMD würde ein instrcution set integrieren der nur im Benchmark Cinebench gut abschneider ? Die Leute würden dann meinen, wow AMD zieht da nach. Ne wichtig ist, der Prozessor wird effizienter. Er verbraucht weniger und leistet dort viel wo er viel leisten soll, Multimedia, Video/Foto Bearbeitung, wobei hier wohl HSA bald greifen wird, also dann doch mehr in Spielen, moment einmal, dank Direct X11.1 oder Mantle sind die Games CPU lastiger. Moment für was brauche ich noch mal eine bessere CPU ? Itunes, CB ?

Ich glaube momentan kommt der Fokus mehr und mehr auf die GPU und parallel processing. Seriale Berechnung, war früher extrem wichtig, weil parallele Abarbeitung immer sehr komplex zu überprüfen war. Mittlerweile gibt es genug Software und Hardware die Aufgaben gut aufteilen können. Natürlich macht man da einen Strich durch die Rechnung, wenn der Compiler nicht mitspielt, und da sehe ich momentan wieder die Marktmacht Intel, die die Entwicklung Richtung viele Threads eher bremst, und AMD die mit Mantle und 8+ Cores eher pusht. Naja man wird es sehen, früher oder später wird auch Intel mehr Cores anbieten, selbst wenn, weniger Cores, kleinere Dies für Intel in erster Linie mehr Geld bedeutet, aber ja wer verübelt es Intel, die Software teils auszubremsen um mehr Geld durch kleinere Chips zu machen ?
Sobald die Software seinen Weg findet, mehr Threads auszulasten, wird man sehen, dass AMD's Module und Platzersparnis, besonders wenn es um APUs geht, doch nicht so dumm war, besonders, wenn die Fertigungstechnik und kleinere Ferigungsprozesse immer schwierig wird. AMD kann nun mal nichts anderes machen als mit ihren Budget, jene Architekturen auf den Markt zu bringen, die für sie in Zukunft wegweisend sind. Intel andersrum ersparen sich dann wieder Geld, indem sie lizenzieren oder Forschung nutzen und ähnliches auf den Markt bringen. Mittlerweile sollte man hier auch aus der Geschichte gelernt haben, das haben wir hier schon einige male zwischen AMD und Intel gehabt.

Btw, ich erinnere mal sehr gerne, besonders in Verbindung zu Cinebench, wo ist den Super PI hinverschwunden, da waren ja die Intel Prozessoren auch immer schnell unterwegs. Ich frage mich, wo ist die CB Version die auch FMA und moderne Instruction Sets nützt. Das interessiert mich wesentlich mehr, außer man wechselt die CPU sowieso jedes Jahr.
 
Irgendwie Ernuechternd
Wenn das alles so hinkommt - ist das Ergebnis zumindest fuer Cinebench, wenn es denn stimmt - doch eher ernuechternd....fast niederschmetternd... (wie alt ist Phenom II noch mal?).
Das Moduldesign - zumindest in dieser Umsetzung - wird fuer AMD nicht die Butter vom Brot ziehen koennen im CPU Bereich. Mann, Mann.

Das haben wir doch schon vor Wochen spekuliert, dass der Cinebench eher bescheiden ausfallen wird!!!

Cinebench ist gestiger Code Code auf einem Chip der für andere Aufgaben konzipiert. Was soll daran niederschmetternd sein?
Die Stärken von Kaveri liegen im INT-Bereich und OpenCL.
 
Ich glaube momentan kommt der Fokus mehr und mehr auf die GPU und parallel processing. Seriale Berechnung, war früher extrem wichtig, weil parallele Abarbeitung immer sehr komplex zu überprüfen war.

Ich glaub in Ägypten haben sie neulich bei einer Graböffnung eine Steintafel gefunden da war dieser lebensbejahende Sachverhalt drauf eingemeißelt.
 
Markus Everson

Nehmen wir mal ein Buch. Wir haben zum Beispiel 1000 Seiten. Es gibt nun mehrere Möglichkeiten das Buch zu durchsuchen.
Wir können zum Beispiel Grenzen definieren und Bereiche einschätzen und dann das Wort suchen.
Auf das wesentlichste beschränkt, haben wir aber die Option, Seriell oder Parallel.
Wir können einen Arbeiter nehmen, der jede Seite durchließt und jedes Wort hintereinander durchgeht. Eventuell ist er so mächtig dass er nur indirekt die Worte ließt und zum Beispiel nur Anfangs und Endbuchstaben eines Wortes beachtet.
Wir könnten aber auch 10 einfache Arbeiter nehmen die jeweils eine eigene Seite durchlesen. Je nach Komplexität und Mächtigkeit des Arbeiters können wir das Buch mit 1000 Seiten durch gehen und eine Variante wird schneller sein.

Ich sage es mal so. Wo ist der Vorteil durch HSA ? Naja, haben wir ein Programm und kann das Steuerwerk die Aufgaben auf der GPU abwickeln und kommen beispiel zu eine Schleife, die ein CU nicht so schnell berechnen kann, einfach in den ZwischenRegister rein und die CPU bearbeitet den nächsten Schritt.
Bei GPGPU hätte man immer quasi ein Stop und ein umkopieren im Speicher. Durch HSA kann man aber quasi schon im Register die Operationen weiterbearbeitet. Kaveri wird erstmal also sicherlich gewisse opCode haben, die eine CPU und GPU aufgeteilte Arbeit ermöglicht und hUMA macht das, was man von einer von Neumann Maschine gewohnt ist, man hat einen gemeinsamen Speicherraum (Adress+Datenraum), denn bis jetzt war der Arbeitsspeicher eigentlich wenn man genau war, durch CPU und GPU getrennt. Somit durch hUMA müsste man eigentlich einige Leitungen einsparen können, eventuell deshalb auch ein neuer Sockel beim Nachfolger.

Klar wir wissen nicht (bzw ich nicht) wie genau das alles in Kaveri oder beim Nachfolger abspielen wird, ob es die Software geben wird, umso wichtiger sehe ich bei AMD momentan die Bemühungen in der Software, aber wenn ich so nachdenke, was ich bis jetzt über die WiiU gelesen habe. Klar vieles Gerüchte oder nichts offizielles. Aber hier kann bsp CPU und GPU auf den eDRAM (befindet sich in der GPU) zugreifen. Da ist der L2 Cache sogar selbst ein eDRAM. Laut Entwickler von Projekt CARS, wird die CPU Cores der WiiU eher dazu genützt die GPU zu unterstützen und nicht wie von vielen angenommen umgekehrt, die CPU ist so schwach und die GPU muss der unter die Arme greifen. Und wir sehen das auch bei PS4 und XOne, schwache Cores, starke GPU. Die Cores, werden fix nur mehr für gewisse Aufgaben gebraucht, die man nicht parallel berechnen kann, beispiel Schleifen. Durch den direkten Zugriff der CPU und GPU über den eDRAM entfallen gewisse Probleme, die momentan stark bei Mantel gelobt wird, das ständige stoppen von Programmabschnitte weil man auf Befehle der CPU wartet. Durch HSA entfällt das quasi, beziehungsweise, ich vermute eher, dass man bei den APUs und einem Spiel mit Mantle mehr rausholen kann, als aus einer gleich starken CPU + dGPU Variante. Man wird es später eh sehen, ob Kaveri Vorteile haben wird. Zu mindestens hat man bei dem einen Mantle Video gehört, dass ein FX mit 8 Cores auf 2GHz ausgereicht hat, die verwendete GPU nicht ins GPU limit zu bringen (näheres müsste man sich noch mal anschauen)

Ich würde es aber nicht gleich ins lächerliche ziehen, aber eine GPU hat eine hohe Rohpower, von der man aber eben bis jetzt meist nur ein Bruchteil rausholen konnte. Aber wie bei jeder Technik, die Effizienz steigt, somit nicht nur bei der CPU sondern auch bei der GPU. Vllt sind wir bald eben dort angelangt, wo der Wert der GPU nicht mehr als zweiter Chip neben der CPU gesehen wird, sondern der direkt durch ein mächtiges Steuerwerk direkt seine Befehle bekommt und Aufgaben zur CPU abgeben kann. Aus der GPU lässt sich momentan noch viel Potential herausholen, bei Intel sieht man bereits, dass man bezüglich der IPC selbst mehr und mehr ans Limit kommt und eigentlich die Software und eben instruction sets immer wichtiger werden.

Aber ja, vllt liege ich ja mit meinen Ansichten falsch, hätte aber dafür dann schon gerne Gründe.
 
Zuletzt bearbeitet:
64bit Speicherbus d. h. es wurde mit einem Speichermodul gebencht?!
 
bbott: Der Verdacht kam mir auch schon, allerdings kennt das verwendete GPU-Z die APU nicht und liefert ohnehin viel Stuss oder gar keine Werte. Aber 800 MHz 64bit und kein Screenshot vonm CPU-Z Ram-Reiter sind schon verdächtig. Zumindest ist hier Inkompetenz am Werk.
Mit nur einem Core hilft der Turbo zu einem kleinen Vorsprung Multithreaded Skalieren die 2 Module nicht so toll wie der Phenom II X4.
Denk mal nach: Letzteres liegt an Ersterem. Der Turbo (der umso besser zündet, je weniger Kerne ausgeöastet sind) zündet bei Single-Threaded, bei Multi jedoch nicht. Deshalb ist die Skalierung geringer. Wäre der Turbo bei Single abgeschaltet, wäre die Skalierung (anscheinend) besser.

Zu Cinebench: Der Schrott arbeitet immernoch maximal mit SSEx, modernere Befehlssätze unterstützt es, auch die 15er Version immernoch nicht. So hab ich jedenfalls andernorts gelesen. Wäre mit was aktuellem gebencht worden, beispielsweise dem für alle verfügbaren x264-Benchmark, hätte Kaveri deutlich besser dagestanden. Ganz zu schweigen von Benches, die auch OpenCL unterstützen, am besten in HSA-Form, wo CPU und GPU gleichzeitig genutzt werden. Wobei das in realer Software zu finden noch ein Weilchen dauern dürfte (am ehesten vermutlich aber da wo man es wirklich brauchen kann, wie eben x264 oder den Nachfolgern für h.265. Oder in modernen Renderern, also nix von Maxxon). Traurig, eher tragisch, dass der Scheiß gern als Benchmark-Standard gesehen wird.

Zum Phenom II X4: Der hat 125W TDP, der verwendete Kaveri 95W (76%), und das inklusive GPU.
 
Zuletzt bearbeitet:
Sicherlich wird es Benchmarks geben bei denen Kaveri schneller ist aber Cinebench, H264, Photoshop und Ältere schlecht Optimierte Spiele wie WoW oder StarCraft II sind z.b. durchaus Praxisrelevant für viele Anwender.

Also die Praxisrelevanz des Cinebench bezweifle ich doch mal sehr stark an wenn es um AMD CPUs/APUs geht. Nicht nur dass Cinebench den Intel Compiler verwendet, der alle Nicht Intel CPUs mit dem schlechtmöglichsten Renderpfad durch den Parcour schickt wohingegen Intels CPUs alle SSE-Optimierungen nutzen können. Nennt sich auch "Criple AMD" Funktion, Quelle dazu siehe hier: http://www.agner.org/optimize/blog/read.php?i=49#49
Sounds nice, but the truth is that the CPU dispatcher didn't support SSE or SSE2 or any higher SSE in AMD processors and still doesn't today (Intel compiler version 11.1.054). I have later found out that others have made similar complaints to Intel and got similarly useless answers

Und zum anderen haben die unterschiedlichen Versionen der Benchmarks keinerlei Vergleichsansatz!
http://www.techpowerup.com/191833/maxon-cinebench-r15-posted.html
I do not think so....I tested it and only Haswell is scaling very well, Ivy is "much" worse. Thuban is clock to clock worse than FX here (in R11.5 not).
Haswell is scaling very well here (better than Ivy and Sandy improvement).

The difference between 4.5 GHz FX and HSW in R11.5 (in percentage) is higher than here

725 vs 822 R15, 7.65 vs 9.9points

R15=FX has 88% of performance Haswell, R11.5= FX has 77% of performance Haswell

PS:there was thread from Maxon Studio custom render scene and FX Vishera won clock to clock against Ivy Bridge i7.
Also ist der FX 11% näher an Haswell gerückt mit der neuen Version, während Thuban und Ivy im Verhältnis schlechter da stehen als zuvor. Nur scheint jeder die alten 11.5 Werte einfach mal auf die Version 15 zu übertragen - was absolut unsinnig ist.
 
Spätestens gegen den Phenom II X6 aus 2010 sieht der Kaveri in Sachen CPU Performance einfach nur schwach aus.
Toll, ein 350 mm² 6-Kern 125W Serverdesign mit einem gut 100 mm² kleineren 2-Modul 95W APU-Design zu vergleichen. Wie "ernüchternd" ist denn die GPU Performance des X6? :]


Das haben wir doch schon vor Wochen spekuliert, dass der Cinebench eher bescheiden ausfallen wird!!!

Cinebench ist gestiger Code Code auf einem Chip der für andere Aufgaben konzipiert. Was soll daran niederschmetternd sein?
Die Stärken von Kaveri liegen im INT-Bereich und OpenCL.
Das würde ich so nicht unterschreiben. Zumindest der Geekbench hat gezeigt, dass die FPU ebenfalls ordentlich zulegen sollte. Man muss sie halt nur zu nutzen wissen. Das kann Cinebench offenbar immer noch nur bedingt. Zumindest was Nicht-Intel Prozessoren betrifft. Mal schauen, was Renderer wie POV-Ray oder C-Ray zeigen. Da dürften wir mehr Rückschlüsse über die Verbesserungen von Kaveri erhalten.
 
Wer vernuenftige Benchmarks sucht findet sie hier.

Zum Beispiel der 8350.

http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=1

Ich darf doch mal :

For many of the Linux computational benchmarks carried out in this article, the AMD FX-8350 proved to be competitive with the Intel Core i7 3770K "Ivy Bridge" processor. Seeing the FX-8350 compete with the i7-3770K at stock speeds in so many benchmarks was rather a surprise since the Windows-focused AMD marketing crew was more expecting this new high-end processor to be head-to-head competition for the Intel Core i7 3570K on Microsoft's operating system.

Vielleicht sollte man sich endlich mal von den alten schrott verabschieden und vernuenftige Betriebssyteme und Anwendungen einsetzen.
Wenn sich jemand an CB orientiert dann soll er das.

Steam gibts bereits auf Linux..

Ich wuensche allen einen guten Rutsch.
 
Toll, ein 350 mm² 6-Kern 125W Serverdesign mit einem gut 100 mm² kleineren 2-Modul 95W APU-Design zu vergleichen. Wie "ernüchternd" ist denn die GPU Performance des X6? :]

X6: 45 nm vs Kaveri 28nm, mal grob überschlagen:
350nm * 0,5 (32nm) * 0,75 (28nm) = 130nm
125WTDP * 0,6 (32nm) * 0,8 (28nm) ~ 60W

Als GPU nutzen wohl die meisten die einen X4/6, i5/7 nutzen eine dGPU und dann ist die iGPU Leistung des X6 irrelevant ;-)

Ich wünschte mir das AMD/INTEL im Highend-CPU-Bereich weiterhin CPUs ohne iGPU anbieten würden, solange bis die iGPU nicht überflüssig ist wenn eine dGPU genutzt wird.
 
Nichts für ungut aber die Rechnung ist für die Tonne.......
Zum einen wäre der Ausgangspunkt der Verkleinerung die größere Strukturgröße und nicht die kleinere, was sich deutlich bei der entsprechende Prozentrechnung niederschlägt. Wie wurden also die Umrechnungsfaktoren erreicht?
Zum anderen kann man das nicht 1:1 auf die Leistungsaufnahme übertragen. Da machen einem bereits die Leckströme einen Strich durch die Rechnung und die 3 Fertigungsprozesse unterscheiden sich zum Teil grundlegend. Eine unbekannte ist allerdings wieviel Spannung der neue Fertigungsprozess für die entsprechende Taktfrequenz benötigt und dieser Wert ist extrem Ausschlaggebend für den Strombedarf.
 
Dann schaut doch nochmal nach, wie groß die CPU-Kerne im Verhältnis zur Gesamtfläche jeweils sind. Und Immernoch ist die GPU im thermischen Budget Kaveris mit drin. Die K10-Kerne würden also mehr Platz wegnehmen und würden mehr Strom verbrauchen.

Dass jeder i7-Nutzer eine dGPU nutzt, ist Stuss, ebenso im Fall eines A10 natürlich. Bei X6-Nutzern dürfte der Anteil wegen der schlappen Chipsatzgrafik immerhin höher sein. Besonders im Notebook, aber auch in PCs, besonders im sehr marktstarken Business-Bereich, sind dGPUs Unsinn. Außer im Workstation-Bereich, aber auch nur in dem, wo tatsächlich höhere Grafik- oder GPGPU-Leistung benötigt wird.
 
cinebench testet ja nur die FPU?
ist bei spielen nicht im normalfall hauptsächlich die integerleistung entscheident?

Nein, bei Spielen zaehlt seit Zeiten des 80486 fast allein die FPU und heutzutage zum Teil die ueblicherweise daran angebundenen SIMD-Einheiten.

Es gab recht lange Zeit nach den 486'ern noch aus Kompatibilitaetsgruenden oft im BIOS eine Funktion, die x87 FPU explizit abzuschalten...
War lustig, der Performanceverlust in Spielen war geradezu exorbitant (30+fps -> 0.2fps gar kein Problem) .

Wie wichtig die x87 FPU eigentlich ist, kennen meist nur noch die alten Hasen, die den Unterschied damals noch live auf 80386 oder 80486SX vs. 80387 bzw. 80486DX miterlebt haben. Da liegen Welten dazwischen.

Ueber den Erfolg einer CPU hat seit dem i80486 seit jeher die FPU entschieden, daran hat sich bis heute nichts geaendert (IBM/Cyrix z.B. ist damals zu Pentium/PentiumMMX-Zeiten daran gescheitert - trotz sehr guter Integer-Leistung uebrigens).
AMD ueberlebte diese Zeit nur durch periodische Verbesserungen an ihrer FPU (z.B. K5 -> K6 -> K6-2 mit jeweils besserer FPU performance).
Der AMD Athlon war fast ausschliesslich wegen seiner neuen und damals hoch ueberlegenen FPU derartig erfolgreich (in Spitzen bis zu 47% bessere Performance als Pentium II bei gleichem Takt).

AMD's derzeit "geteilte" FPU im Bulldozer-Modulkonzept ist evtl. durch die Bank die groesste Schwachstelle im Design und das raecht sich.

Heute gehen zwar deutlich mehr Faktoren in die Spieleperformance ein aber die FPU ist nach wie vor der mit Abstand groesste Faktor.
 
Zuletzt bearbeitet:
Taktbereinigt ist das Cinebench-Ergebnis das alle vier Kerne nutzt 15,6% schneller - ungefähr das was an Effizienzverbesserung zuletzt vorhergesagt wurde.
Nur da der Takt verringert werden musste bleiben weniger als 5% Leistugssteigerung.
Wie war das nochmal? AMD hatte anfangs eine Leistungssteigerung von 30% in Aussicht gestellt.

---------- Beitrag hinzugefügt um 02:17 ---------- Vorheriger Beitrag um 02:06 ----------

Zu Cinebench: Der Schrott arbeitet immernoch maximal mit SSEx, modernere Befehlssätze unterstützt es, auch die 15er Version immernoch nicht. ...

Unter umständen macht es auch keinen Sinn bei den genutzten Algorithmen. Bzgl x264 haben die Entwickler ja auch gesagt, dass eine AVX-Unterstützung nichts bringen würde. Es gibt eben nicht für jeden Algorithmus der mit FP-Werten arbeitet einen sinnvollen Einsatz auf vier doubles oder acht floats gleichzeitig in einer Operation wie es mit AVX möglich ist.
 
Zuletzt bearbeitet:
Und wie steht es mit FMA3/4?
 
Zurück
Oben Unten