App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News Hermitage Akihabara zeigt Cinebench-R15-Werte für Kaveri-APU A10-7850K
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Die japanische Seite Hermitage Akihabara hat Bilder einer A10-7850K APU aus der 47. Kalenderwoche veröffentlicht und bestätigt zudem die bereits durchgesickerten technischen Daten der neuen Kaveri-APUs. Demnach soll das Spitzenmodell A10-7850K mit offenem Multiplikator ab Werk über einen Basistakt von 3,7 GHz und einen Turbo bis 4,0 GHz verfügen.
(…)
» Artikel lesen
(…)
» Artikel lesen
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Als vergleich mal hier unsere R15 Ergebnis Sammlung im Form: Der A10 7850K ist somit was Cinebench R15 angeht fast so schnell wie ein Phenom II X4 @ 3,4 GHz (84/331 Punkte). Mit nur einem Core hilft der Turbo zu einem kleinen Vorsprung Multithreaded Skalieren die 2 Module nicht so toll wie der Phenom II X4.
Zuletzt bearbeitet:
Irgendwie Ernuechternd
Wenn das alles so hinkommt - ist das Ergebnis zumindest fuer Cinebench, wenn es denn stimmt - doch eher ernuechternd....fast niederschmetternd... (wie alt ist Phenom II noch mal?).
Das Moduldesign - zumindest in dieser Umsetzung - wird fuer AMD nicht die Butter vom Brot ziehen koennen im CPU Bereich. Mann, Mann.
//Was ist denn nun von MultiCore und der durch das Moduldesign erkaufte Platzersparniss geworden?
Klingt manch mal so wie das 'Verkaufsargument nativer Quadcore' bei Barcelona.... //
Aber Cinebench ist nicht alles... aber es sollte eigentlich sichergestellt sein, dass ein 'ueblicher Benchmark' fuer ein Produkt aus dem Jahre 2014 - das Ergebnis fuer das eigene Produkt etwa im gleichem Segment aus dem Jahre 2009 deutlich ueberfluegelt...zumal 3,4 Ghz noch nicht die hoechste Ausbaustufe vom X4 darstellt...
(Bitte nun wieder alle auf Cinebench schimpfen ..und jeder kann die APU Argumente erst mal fuer sich behalten - auch bitte das Argument 'Leistung reicht' doch).
Die CPU Leistung wird - dem Anschein nach - fuer das 'Topmodell' eher bescheiden sein (auch wenn Cinebench nicht das Mass aller Dinge ist)...bleibt fast nur noch der Stromverbrauch..... und die APU Faehigkeiten, die IGPU...
Sprich es gibt noch genug andere Stellen...wo AMD punkten kann... und es ist bisher auch nur ein Benchmark - wer weiss schon genau, welcher Takt an lag etc.
So aber, sieht es irgendwie mau aus...und die Preisgestaltung wird sich auch nicht ganz so nach AMDs Vorstellung durchsetzen lassen IMHO.
just my2cents,
TNT
Wenn das alles so hinkommt - ist das Ergebnis zumindest fuer Cinebench, wenn es denn stimmt - doch eher ernuechternd....fast niederschmetternd... (wie alt ist Phenom II noch mal?).
Das Moduldesign - zumindest in dieser Umsetzung - wird fuer AMD nicht die Butter vom Brot ziehen koennen im CPU Bereich. Mann, Mann.
//Was ist denn nun von MultiCore und der durch das Moduldesign erkaufte Platzersparniss geworden?
Klingt manch mal so wie das 'Verkaufsargument nativer Quadcore' bei Barcelona.... //
Aber Cinebench ist nicht alles... aber es sollte eigentlich sichergestellt sein, dass ein 'ueblicher Benchmark' fuer ein Produkt aus dem Jahre 2014 - das Ergebnis fuer das eigene Produkt etwa im gleichem Segment aus dem Jahre 2009 deutlich ueberfluegelt...zumal 3,4 Ghz noch nicht die hoechste Ausbaustufe vom X4 darstellt...
(Bitte nun wieder alle auf Cinebench schimpfen ..und jeder kann die APU Argumente erst mal fuer sich behalten - auch bitte das Argument 'Leistung reicht' doch).
Die CPU Leistung wird - dem Anschein nach - fuer das 'Topmodell' eher bescheiden sein (auch wenn Cinebench nicht das Mass aller Dinge ist)...bleibt fast nur noch der Stromverbrauch..... und die APU Faehigkeiten, die IGPU...
Sprich es gibt noch genug andere Stellen...wo AMD punkten kann... und es ist bisher auch nur ein Benchmark - wer weiss schon genau, welcher Takt an lag etc.
So aber, sieht es irgendwie mau aus...und die Preisgestaltung wird sich auch nicht ganz so nach AMDs Vorstellung durchsetzen lassen IMHO.
just my2cents,
TNT
Zuletzt bearbeitet:
LoRDxRaVeN
Grand Admiral Special
- Mitglied seit
- 20.01.2009
- Beiträge
- 4.169
- Renomée
- 64
- Standort
- Oberösterreich - Studium in Wien
- Mein Laptop
- Lenovo Thinkpad Edge 11
- Prozessor
- Phenom II X4 955 C3
- Mainboard
- Gigabyte GA-MA790X-DS4
- Kühlung
- Xigmatek Thor's Hammer + Enermax Twister Lüfter
- Speicher
- 4 x 1GB DDR2-800 Samsung
- Grafikprozessor
- Sapphire HD4870 512MB mit Referenzkühler
- Display
- 22'' Samung SyncMaster 2233BW 1680x1050
- HDD
- Hitachi Deskstar 250GB, Western Digital Caviar Green EADS 1TB
- Optisches Laufwerk
- Plextor PX-130A, Plextor Px-716SA
- Soundkarte
- onboard
- Gehäuse
- Aspire
- Netzteil
- Enermax PRO82+ II 425W ATX 2.3
- Betriebssystem
- Windows 7 Professional Studentenversion
- Webbrowser
- Firefox siebenunddreißigsttausend
- Schau Dir das System auf sysprofile.de an
@TNT
Da es eben nur Cinebench war, kann man schon noch hoffen, dass es in anderen Benchmark ganz anders aussieht, da diesem bekanntlich oft FPU Lastigkeit nachgesagt wird und somit über Integer-Anwendungsfelder vermutlich kaum bis gar nichts aussagt. Abwarten...
LG
Da es eben nur Cinebench war, kann man schon noch hoffen, dass es in anderen Benchmark ganz anders aussieht, da diesem bekanntlich oft FPU Lastigkeit nachgesagt wird und somit über Integer-Anwendungsfelder vermutlich kaum bis gar nichts aussagt. Abwarten...
LG
@TNT
Da es eben nur Cinebench war, kann man schon noch hoffen, dass es in anderen Benchmark ganz anders aussieht, da diesem bekanntlich oft FPU Lastigkeit nachgesagt wird und somit über Integer-Anwendungsfelder vermutlich kaum bis gar nichts aussagt. Abwarten...
LG
Richtig - die Hoffnung stirbt zuletzt. Aber mal ehrlich - wenn es denn stimmen sollte - wie kann denn ein vier Jahre altes Produkt - ein aktuelles schlaegt... (und das beim Kaveri Topmodell) ...diese Spanne sind doch nahezu Welten in der CPU Entwicklung.... und dass auch wenn man das Moduldesign klassisch als FPU schwach bezeichnet...
Aber wie ich selbst geschrieben habe, betrifft es nur diesen Bench...der nun mal ein Referenzbench z.Z. darstellt...
Andere Dinge moegen anders aussehen... aber es sieht nicht so aus als ob man (abgesehen von IGPU und den besondere APU Faehigkeiten) sich wesentlich von Richland 6800K im CPU Part absetzen wird koennen IMHO.
Hope the best and fear the worst!
TNT
Zuletzt bearbeitet:
ELKINATOR
Gesperrt
cinebench testet ja nur die FPU?
ist bei spielen nicht im normalfall hauptsächlich die integerleistung entscheident?
ist bei spielen nicht im normalfall hauptsächlich die integerleistung entscheident?
Shadowtrooper
Grand Admiral Special
- Mitglied seit
- 02.02.2009
- Beiträge
- 2.476
- Renomée
- 35
- Standort
- Krefeld
- Mein Laptop
- Lenovo ThinkPad E130 (i3 3217U)
- Prozessor
- AMD Phenom II X4 955BE @3,6 GHz 1,375V
- Mainboard
- Gigabyte MA770T UD3P
- Kühlung
- EKL Groß Clockner
- Speicher
- 4*2GB DDR3 1333
- Grafikprozessor
- Gigabyte GTX 750 Ti Windforce OC
- Display
- HP Pavilion 22 Xi
- SSD
- 240GB Kingston HyperX
- HDD
- 3 TB Seagate 7200.14
- Optisches Laufwerk
- LG DVD Brenner
- Soundkarte
- Xonar DX+ AKG K 242 HD
- Gehäuse
- CM 690
- Netzteil
- Seasonic G-360
- Betriebssystem
- Win 7 Prof. 64Bit Sp1
- Webbrowser
- Chrome
Der Phenom II X4 955 mit dem ich den Bench (84/331) gemacht hab stammt aus 6 2009 und verwendet langsamen DDR3 1333 Speicher ist also schon deutlich über 4 Jahre alt (hat damals nur 169 Euro gekostet ist also circa die Preisklasse des kommenden A10 7850k). Spätestens gegen den Phenom II X6 aus 2010 sieht der Kaveri in Sachen CPU Performance einfach nur schwach aus. Mag sein das die Leistung für die Meisten Anwender ausreicht und das das Featureset und die Energieeffizienz mittlerweile besser sind aber eine Enttäuschung ist das wohl trotzdem. Sicherlich wird es Benchmarks geben bei denen Kaveri schneller ist aber Cinebench, H264, Photoshop und Ältere schlecht Optimierte Spiele wie WoW oder StarCraft II sind z.b. durchaus Praxisrelevant für viele Anwender.Richtig - die Hoffnung stirbt zuletzt. Aber mal ehrlich - wenn es denn stimmen sollte - wie kann denn ein fast vier Jahre altes Produkt - ein aktuelles schlaegt... (und das beim Kaveri Topmodell) ...diese Spanne sind doch nahezu Welten in der CPU Entwicklung.... und dass auch wenn man das Moduldesign klassisch als FPU schwach bezeichnet...
Aber wie ich selbst geschrieben habe, betrifft es nur diesen Bench...der nun mal ein Referenzbench z.Z. darstellt...
Andere Dinge moegen anders aussehen... aber es sieht nicht so aus als ob man (abgesehen von IGPU und den besondere APU Faehigkeiten) sich wesentlich von Richland 6800K im CPU Part absetzen wird koennen IMHO.
Hope the best and fear the worst!
TNT
Cinebench ist Rendering und ehr Float Lastig Testet aber nicht nur die FPU und ja der A10 6800k ist Multithreaded minimal schneller als der Leak zum A10 7850k kann aber sein das Kaveri effizienter ist, da hoffe ich noch etwas drauf. Best Case währe wohl eine Super Tolle iGPU die dank HSA nicht zu sehr unter der Speicherbandbreite leidet und mit einer GeForce GT 640 oder Radeon HD 7730 mithalten kann und eine unerwartet Hohe Energieeffizienz.
Ich hoffe etwas darauf das eine der Seiten die Tests zu Kaveri erstellt einen alten Phenom II X4 oder X6 oder Meinetwegen auch Core i5 760 oder i7 860 in den Test integriert damit man einen vergleich hat wie wenig die CPU Leistung im Desktop Markt in den letzten x Jahren tatsächlich verbessert wurde (abgesehen von Sockel 2011) und wie wenig ein Upgrade von einem Älteren Phenom II X4 oder Core i5 Prozessor zu einem A10 vielen Anwendern Tatsächlich bringen würde.
Zuletzt bearbeitet:
Der Phenom II X4 955 mit dem ich den Bench (84/331) gemacht hab stammt aus 6 2009 und verwendet langsamen DDR3 1333 Speicher ist also schon deutlich über 4 Jahre alt (hat damals nur 169 Euro gekostet ist also circa die Preisklasse des kommenden A10 7850k). ...H264, Photoshop und Ältere schlecht Optimierte Spiele wie WoW oder StarCraft II sind z.b. durchaus Praxisrelevant für viele Anwender.
... Best Case währe wohl eine Super Tolle iGPU die dank HSA nicht zu sehr unter der Speicherbandbreite leidet und mit einer GeForce GT 640 oder Radeon HD 7730 mithalten kann und eine unerwartet Hohe Energieeffizienz.
Ja, gerade deswegen passt der Vergleich zum X4 besser als zum X6 - auch wenn er ein relevanter Gegner waere....
HSA, IGPU und Effizienz koennten trumpfen - aber das steht in den Sternen....aber der CPU Teil scheint noch nicht der Wurf zu sein, den AMD braucht.
Aktuelle HSA Software und die TDP von 95 Watt lassen aber da fuer ebenfalls nichts Gutes hoffen...
Vorallem wenn der CPU Teil im Topmodell nicht trumpfen kann - sind die Modelle unter der 7850K noch weniger schlagkraeftig (und warum wird der 7700K schon in der IGPU beschnitten - schliesslich hat sie auch eine TDP 95 (auch wenn es eine mit 65 TDP geben soll!?))
TNT
pipip
Captain Special
- Mitglied seit
- 17.03.2011
- Beiträge
- 209
- Renomée
- 2
- Mein Laptop
- HP625
- Prozessor
- N930@2Ghz , 0,9250Volt
- Speicher
- 4gig
- Grafikprozessor
- AMD HD4200
Aber mal ehrlich - wenn es denn stimmen sollte - wie kann denn ein vier Jahre altes Produkt - ein aktuelles schlägt... (und das beim Kaveri Topmodell) ...diese Spanne sind doch nahezu Welten in der CPU Entwicklung.... und dass auch wenn man das Moduldesign klassisch als FPU schwach bezeichnet...
Aber wie ich selbst geschrieben habe, betrifft es nur diesen Bench...der nun mal ein Referenzbench z.Z. darstellt...
Ich weiß du willst das nicht hören, doch du musst eine APU auch als solche sehen. Klar du kannst über Steamroller Cores spekulieren, besonders wenn es dann um reine FX bzw Athlon II x4 geht, die keine IGP haben. Doch eine moderne CPU zeichnet sich durch mehr als nur IPC aus. Jeder der sich ein bisschen mit digitale Systeme auskennt weiß, was man alles auch durch instrction sets ect erreichen kann. Es kommt aber bei solchen Netzwerke, die keine Schaltwerke sind eben darauf an, ob der Programmierer diese auch nützt. Und in meinen Augen macht AMD momentan das einzig Richtige. Einen gesunden weitergang. Das heißt lieber solche Produkte auf den Markt bringen, die sie auch verkaufen können. Das heißt Produkte die der OEM-Partner trotz Rabatte durch Intel trotzdem eine AMD APU für ihr Produkt nehmen.
Da AMD jetzt mit einer neuen APU und viel Software daherkommt, können Firmen, wie zum Beispiel Samsung, ein schmales Notebook bauen, eventuell sogar durch die Radeon GPU ein Game Bundle und durch Mantle mehr Performance rausholen, als die Konkurrenz das mit seiner IGP schaffen könnte.
Somit momentan liegt der Schlüssel teils mehr in der Software und eben in Techniken, wie HSA, instrcution Sets ect. Bulldozer hat aber damals dadurch gekrankt, da eben genau wegen solchen allten Programmen, wofür Cinebench quasi ein toller Stellvertreter ist, die Vorteile des FX nicht mal ansatzweise ausnützen konnte.
Das ist so, also ob der Intel und der AMD Prozessor unterschiedliche Bereifung hätte und eine Straße quasi sich nur auf das Profil des Intel Prozessor festgelegt hat. Was macht also AMD, sie schaffen Umgebungen, wo Intel keinen Einfluss hat und die sich vermarkten lassen. Dank den Konsolen und der Mantel API hat AMD neue Chancen, auch im Tablet Market sich einen neuen Ruf als Gaming-Hardware Ausstatter zu etablieren. Ich hoffe nur, AMD's Marketing versaut es nicht, doch seit der Vorstellung der neuen R9 merkt man, AMD ist wesentlich aggressiver geworden, scheinbar haben sie sich etwas von NV abgeschnitten.
Übrigens, war es irwie klar, dass die FPU nicht sonderlich besser wird, immerhin, soll ja Verbesserungen seitens der FPU soviel ich weiß erst bei Excavator kommen. Hier soll die FPU ja erstmals mit deren ATI/AMD GPU Tool entworfen worden sein. Bei Steamroller liegt der Fokus doch bei Sprungbefehlen, besseres Front-End besseres füttern der Cores ect. Also hauptsächlich bei FETCH-Anwendungen (hoffe ich irre mich nicht, freue mich auf Verbesserungen !).
Doch wichtiger ist ja, dass die Prozessoren nicht bei theoretischen Bench gut abschneiden (Intel Prozessoren sollen ja von instruction sets in CB profitieren), sondern dass wir in realen Anwendungen ausgewogene Werte bekommen. Was wäre, wenn AMD uns bescheißen würde ? Hättest du lieber, AMD würde ein instrcution set integrieren der nur im Benchmark Cinebench gut abschneider ? Die Leute würden dann meinen, wow AMD zieht da nach. Ne wichtig ist, der Prozessor wird effizienter. Er verbraucht weniger und leistet dort viel wo er viel leisten soll, Multimedia, Video/Foto Bearbeitung, wobei hier wohl HSA bald greifen wird, also dann doch mehr in Spielen, moment einmal, dank Direct X11.1 oder Mantle sind die Games CPU lastiger. Moment für was brauche ich noch mal eine bessere CPU ? Itunes, CB ?
Ich glaube momentan kommt der Fokus mehr und mehr auf die GPU und parallel processing. Seriale Berechnung, war früher extrem wichtig, weil parallele Abarbeitung immer sehr komplex zu überprüfen war. Mittlerweile gibt es genug Software und Hardware die Aufgaben gut aufteilen können. Natürlich macht man da einen Strich durch die Rechnung, wenn der Compiler nicht mitspielt, und da sehe ich momentan wieder die Marktmacht Intel, die die Entwicklung Richtung viele Threads eher bremst, und AMD die mit Mantle und 8+ Cores eher pusht. Naja man wird es sehen, früher oder später wird auch Intel mehr Cores anbieten, selbst wenn, weniger Cores, kleinere Dies für Intel in erster Linie mehr Geld bedeutet, aber ja wer verübelt es Intel, die Software teils auszubremsen um mehr Geld durch kleinere Chips zu machen ?
Sobald die Software seinen Weg findet, mehr Threads auszulasten, wird man sehen, dass AMD's Module und Platzersparnis, besonders wenn es um APUs geht, doch nicht so dumm war, besonders, wenn die Fertigungstechnik und kleinere Ferigungsprozesse immer schwierig wird. AMD kann nun mal nichts anderes machen als mit ihren Budget, jene Architekturen auf den Markt zu bringen, die für sie in Zukunft wegweisend sind. Intel andersrum ersparen sich dann wieder Geld, indem sie lizenzieren oder Forschung nutzen und ähnliches auf den Markt bringen. Mittlerweile sollte man hier auch aus der Geschichte gelernt haben, das haben wir hier schon einige male zwischen AMD und Intel gehabt.
Btw, ich erinnere mal sehr gerne, besonders in Verbindung zu Cinebench, wo ist den Super PI hinverschwunden, da waren ja die Intel Prozessoren auch immer schnell unterwegs. Ich frage mich, wo ist die CB Version die auch FMA und moderne Instruction Sets nützt. Das interessiert mich wesentlich mehr, außer man wechselt die CPU sowieso jedes Jahr.
mariahellwig
Grand Admiral Special
Irgendwie Ernuechternd
Wenn das alles so hinkommt - ist das Ergebnis zumindest fuer Cinebench, wenn es denn stimmt - doch eher ernuechternd....fast niederschmetternd... (wie alt ist Phenom II noch mal?).
Das Moduldesign - zumindest in dieser Umsetzung - wird fuer AMD nicht die Butter vom Brot ziehen koennen im CPU Bereich. Mann, Mann.
Das haben wir doch schon vor Wochen spekuliert, dass der Cinebench eher bescheiden ausfallen wird!!!
Cinebench ist gestiger Code Code auf einem Chip der für andere Aufgaben konzipiert. Was soll daran niederschmetternd sein?
Die Stärken von Kaveri liegen im INT-Bereich und OpenCL.
Markus Everson
Grand Admiral Special
Ich glaube momentan kommt der Fokus mehr und mehr auf die GPU und parallel processing. Seriale Berechnung, war früher extrem wichtig, weil parallele Abarbeitung immer sehr komplex zu überprüfen war.
Ich glaub in Ägypten haben sie neulich bei einer Graböffnung eine Steintafel gefunden da war dieser lebensbejahende Sachverhalt drauf eingemeißelt.
pipip
Captain Special
- Mitglied seit
- 17.03.2011
- Beiträge
- 209
- Renomée
- 2
- Mein Laptop
- HP625
- Prozessor
- N930@2Ghz , 0,9250Volt
- Speicher
- 4gig
- Grafikprozessor
- AMD HD4200
Markus Everson
Nehmen wir mal ein Buch. Wir haben zum Beispiel 1000 Seiten. Es gibt nun mehrere Möglichkeiten das Buch zu durchsuchen.
Wir können zum Beispiel Grenzen definieren und Bereiche einschätzen und dann das Wort suchen.
Auf das wesentlichste beschränkt, haben wir aber die Option, Seriell oder Parallel.
Wir können einen Arbeiter nehmen, der jede Seite durchließt und jedes Wort hintereinander durchgeht. Eventuell ist er so mächtig dass er nur indirekt die Worte ließt und zum Beispiel nur Anfangs und Endbuchstaben eines Wortes beachtet.
Wir könnten aber auch 10 einfache Arbeiter nehmen die jeweils eine eigene Seite durchlesen. Je nach Komplexität und Mächtigkeit des Arbeiters können wir das Buch mit 1000 Seiten durch gehen und eine Variante wird schneller sein.
Ich sage es mal so. Wo ist der Vorteil durch HSA ? Naja, haben wir ein Programm und kann das Steuerwerk die Aufgaben auf der GPU abwickeln und kommen beispiel zu eine Schleife, die ein CU nicht so schnell berechnen kann, einfach in den ZwischenRegister rein und die CPU bearbeitet den nächsten Schritt.
Bei GPGPU hätte man immer quasi ein Stop und ein umkopieren im Speicher. Durch HSA kann man aber quasi schon im Register die Operationen weiterbearbeitet. Kaveri wird erstmal also sicherlich gewisse opCode haben, die eine CPU und GPU aufgeteilte Arbeit ermöglicht und hUMA macht das, was man von einer von Neumann Maschine gewohnt ist, man hat einen gemeinsamen Speicherraum (Adress+Datenraum), denn bis jetzt war der Arbeitsspeicher eigentlich wenn man genau war, durch CPU und GPU getrennt. Somit durch hUMA müsste man eigentlich einige Leitungen einsparen können, eventuell deshalb auch ein neuer Sockel beim Nachfolger.
Klar wir wissen nicht (bzw ich nicht) wie genau das alles in Kaveri oder beim Nachfolger abspielen wird, ob es die Software geben wird, umso wichtiger sehe ich bei AMD momentan die Bemühungen in der Software, aber wenn ich so nachdenke, was ich bis jetzt über die WiiU gelesen habe. Klar vieles Gerüchte oder nichts offizielles. Aber hier kann bsp CPU und GPU auf den eDRAM (befindet sich in der GPU) zugreifen. Da ist der L2 Cache sogar selbst ein eDRAM. Laut Entwickler von Projekt CARS, wird die CPU Cores der WiiU eher dazu genützt die GPU zu unterstützen und nicht wie von vielen angenommen umgekehrt, die CPU ist so schwach und die GPU muss der unter die Arme greifen. Und wir sehen das auch bei PS4 und XOne, schwache Cores, starke GPU. Die Cores, werden fix nur mehr für gewisse Aufgaben gebraucht, die man nicht parallel berechnen kann, beispiel Schleifen. Durch den direkten Zugriff der CPU und GPU über den eDRAM entfallen gewisse Probleme, die momentan stark bei Mantel gelobt wird, das ständige stoppen von Programmabschnitte weil man auf Befehle der CPU wartet. Durch HSA entfällt das quasi, beziehungsweise, ich vermute eher, dass man bei den APUs und einem Spiel mit Mantle mehr rausholen kann, als aus einer gleich starken CPU + dGPU Variante. Man wird es später eh sehen, ob Kaveri Vorteile haben wird. Zu mindestens hat man bei dem einen Mantle Video gehört, dass ein FX mit 8 Cores auf 2GHz ausgereicht hat, die verwendete GPU nicht ins GPU limit zu bringen (näheres müsste man sich noch mal anschauen)
Ich würde es aber nicht gleich ins lächerliche ziehen, aber eine GPU hat eine hohe Rohpower, von der man aber eben bis jetzt meist nur ein Bruchteil rausholen konnte. Aber wie bei jeder Technik, die Effizienz steigt, somit nicht nur bei der CPU sondern auch bei der GPU. Vllt sind wir bald eben dort angelangt, wo der Wert der GPU nicht mehr als zweiter Chip neben der CPU gesehen wird, sondern der direkt durch ein mächtiges Steuerwerk direkt seine Befehle bekommt und Aufgaben zur CPU abgeben kann. Aus der GPU lässt sich momentan noch viel Potential herausholen, bei Intel sieht man bereits, dass man bezüglich der IPC selbst mehr und mehr ans Limit kommt und eigentlich die Software und eben instruction sets immer wichtiger werden.
Aber ja, vllt liege ich ja mit meinen Ansichten falsch, hätte aber dafür dann schon gerne Gründe.
Nehmen wir mal ein Buch. Wir haben zum Beispiel 1000 Seiten. Es gibt nun mehrere Möglichkeiten das Buch zu durchsuchen.
Wir können zum Beispiel Grenzen definieren und Bereiche einschätzen und dann das Wort suchen.
Auf das wesentlichste beschränkt, haben wir aber die Option, Seriell oder Parallel.
Wir können einen Arbeiter nehmen, der jede Seite durchließt und jedes Wort hintereinander durchgeht. Eventuell ist er so mächtig dass er nur indirekt die Worte ließt und zum Beispiel nur Anfangs und Endbuchstaben eines Wortes beachtet.
Wir könnten aber auch 10 einfache Arbeiter nehmen die jeweils eine eigene Seite durchlesen. Je nach Komplexität und Mächtigkeit des Arbeiters können wir das Buch mit 1000 Seiten durch gehen und eine Variante wird schneller sein.
Ich sage es mal so. Wo ist der Vorteil durch HSA ? Naja, haben wir ein Programm und kann das Steuerwerk die Aufgaben auf der GPU abwickeln und kommen beispiel zu eine Schleife, die ein CU nicht so schnell berechnen kann, einfach in den ZwischenRegister rein und die CPU bearbeitet den nächsten Schritt.
Bei GPGPU hätte man immer quasi ein Stop und ein umkopieren im Speicher. Durch HSA kann man aber quasi schon im Register die Operationen weiterbearbeitet. Kaveri wird erstmal also sicherlich gewisse opCode haben, die eine CPU und GPU aufgeteilte Arbeit ermöglicht und hUMA macht das, was man von einer von Neumann Maschine gewohnt ist, man hat einen gemeinsamen Speicherraum (Adress+Datenraum), denn bis jetzt war der Arbeitsspeicher eigentlich wenn man genau war, durch CPU und GPU getrennt. Somit durch hUMA müsste man eigentlich einige Leitungen einsparen können, eventuell deshalb auch ein neuer Sockel beim Nachfolger.
Klar wir wissen nicht (bzw ich nicht) wie genau das alles in Kaveri oder beim Nachfolger abspielen wird, ob es die Software geben wird, umso wichtiger sehe ich bei AMD momentan die Bemühungen in der Software, aber wenn ich so nachdenke, was ich bis jetzt über die WiiU gelesen habe. Klar vieles Gerüchte oder nichts offizielles. Aber hier kann bsp CPU und GPU auf den eDRAM (befindet sich in der GPU) zugreifen. Da ist der L2 Cache sogar selbst ein eDRAM. Laut Entwickler von Projekt CARS, wird die CPU Cores der WiiU eher dazu genützt die GPU zu unterstützen und nicht wie von vielen angenommen umgekehrt, die CPU ist so schwach und die GPU muss der unter die Arme greifen. Und wir sehen das auch bei PS4 und XOne, schwache Cores, starke GPU. Die Cores, werden fix nur mehr für gewisse Aufgaben gebraucht, die man nicht parallel berechnen kann, beispiel Schleifen. Durch den direkten Zugriff der CPU und GPU über den eDRAM entfallen gewisse Probleme, die momentan stark bei Mantel gelobt wird, das ständige stoppen von Programmabschnitte weil man auf Befehle der CPU wartet. Durch HSA entfällt das quasi, beziehungsweise, ich vermute eher, dass man bei den APUs und einem Spiel mit Mantle mehr rausholen kann, als aus einer gleich starken CPU + dGPU Variante. Man wird es später eh sehen, ob Kaveri Vorteile haben wird. Zu mindestens hat man bei dem einen Mantle Video gehört, dass ein FX mit 8 Cores auf 2GHz ausgereicht hat, die verwendete GPU nicht ins GPU limit zu bringen (näheres müsste man sich noch mal anschauen)
Ich würde es aber nicht gleich ins lächerliche ziehen, aber eine GPU hat eine hohe Rohpower, von der man aber eben bis jetzt meist nur ein Bruchteil rausholen konnte. Aber wie bei jeder Technik, die Effizienz steigt, somit nicht nur bei der CPU sondern auch bei der GPU. Vllt sind wir bald eben dort angelangt, wo der Wert der GPU nicht mehr als zweiter Chip neben der CPU gesehen wird, sondern der direkt durch ein mächtiges Steuerwerk direkt seine Befehle bekommt und Aufgaben zur CPU abgeben kann. Aus der GPU lässt sich momentan noch viel Potential herausholen, bei Intel sieht man bereits, dass man bezüglich der IPC selbst mehr und mehr ans Limit kommt und eigentlich die Software und eben instruction sets immer wichtiger werden.
Aber ja, vllt liege ich ja mit meinen Ansichten falsch, hätte aber dafür dann schon gerne Gründe.
Zuletzt bearbeitet:
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
64bit Speicherbus d. h. es wurde mit einem Speichermodul gebencht?!
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
bbott: Der Verdacht kam mir auch schon, allerdings kennt das verwendete GPU-Z die APU nicht und liefert ohnehin viel Stuss oder gar keine Werte. Aber 800 MHz 64bit und kein Screenshot vonm CPU-Z Ram-Reiter sind schon verdächtig. Zumindest ist hier Inkompetenz am Werk.
Zu Cinebench: Der Schrott arbeitet immernoch maximal mit SSEx, modernere Befehlssätze unterstützt es, auch die 15er Version immernoch nicht. So hab ich jedenfalls andernorts gelesen. Wäre mit was aktuellem gebencht worden, beispielsweise dem für alle verfügbaren x264-Benchmark, hätte Kaveri deutlich besser dagestanden. Ganz zu schweigen von Benches, die auch OpenCL unterstützen, am besten in HSA-Form, wo CPU und GPU gleichzeitig genutzt werden. Wobei das in realer Software zu finden noch ein Weilchen dauern dürfte (am ehesten vermutlich aber da wo man es wirklich brauchen kann, wie eben x264 oder den Nachfolgern für h.265. Oder in modernen Renderern, also nix von Maxxon). Traurig, eher tragisch, dass der Scheiß gern als Benchmark-Standard gesehen wird.
Zum Phenom II X4: Der hat 125W TDP, der verwendete Kaveri 95W (76%), und das inklusive GPU.
Denk mal nach: Letzteres liegt an Ersterem. Der Turbo (der umso besser zündet, je weniger Kerne ausgeöastet sind) zündet bei Single-Threaded, bei Multi jedoch nicht. Deshalb ist die Skalierung geringer. Wäre der Turbo bei Single abgeschaltet, wäre die Skalierung (anscheinend) besser.Mit nur einem Core hilft der Turbo zu einem kleinen Vorsprung Multithreaded Skalieren die 2 Module nicht so toll wie der Phenom II X4.
Zu Cinebench: Der Schrott arbeitet immernoch maximal mit SSEx, modernere Befehlssätze unterstützt es, auch die 15er Version immernoch nicht. So hab ich jedenfalls andernorts gelesen. Wäre mit was aktuellem gebencht worden, beispielsweise dem für alle verfügbaren x264-Benchmark, hätte Kaveri deutlich besser dagestanden. Ganz zu schweigen von Benches, die auch OpenCL unterstützen, am besten in HSA-Form, wo CPU und GPU gleichzeitig genutzt werden. Wobei das in realer Software zu finden noch ein Weilchen dauern dürfte (am ehesten vermutlich aber da wo man es wirklich brauchen kann, wie eben x264 oder den Nachfolgern für h.265. Oder in modernen Renderern, also nix von Maxxon). Traurig, eher tragisch, dass der Scheiß gern als Benchmark-Standard gesehen wird.
Zum Phenom II X4: Der hat 125W TDP, der verwendete Kaveri 95W (76%), und das inklusive GPU.
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Sicherlich wird es Benchmarks geben bei denen Kaveri schneller ist aber Cinebench, H264, Photoshop und Ältere schlecht Optimierte Spiele wie WoW oder StarCraft II sind z.b. durchaus Praxisrelevant für viele Anwender.
Also die Praxisrelevanz des Cinebench bezweifle ich doch mal sehr stark an wenn es um AMD CPUs/APUs geht. Nicht nur dass Cinebench den Intel Compiler verwendet, der alle Nicht Intel CPUs mit dem schlechtmöglichsten Renderpfad durch den Parcour schickt wohingegen Intels CPUs alle SSE-Optimierungen nutzen können. Nennt sich auch "Criple AMD" Funktion, Quelle dazu siehe hier: http://www.agner.org/optimize/blog/read.php?i=49#49
Sounds nice, but the truth is that the CPU dispatcher didn't support SSE or SSE2 or any higher SSE in AMD processors and still doesn't today (Intel compiler version 11.1.054). I have later found out that others have made similar complaints to Intel and got similarly useless answers
Und zum anderen haben die unterschiedlichen Versionen der Benchmarks keinerlei Vergleichsansatz!
http://www.techpowerup.com/191833/maxon-cinebench-r15-posted.html
I do not think so....I tested it and only Haswell is scaling very well, Ivy is "much" worse. Thuban is clock to clock worse than FX here (in R11.5 not).
Also ist der FX 11% näher an Haswell gerückt mit der neuen Version, während Thuban und Ivy im Verhältnis schlechter da stehen als zuvor. Nur scheint jeder die alten 11.5 Werte einfach mal auf die Version 15 zu übertragen - was absolut unsinnig ist.Haswell is scaling very well here (better than Ivy and Sandy improvement).
The difference between 4.5 GHz FX and HSW in R11.5 (in percentage) is higher than here
725 vs 822 R15, 7.65 vs 9.9points
R15=FX has 88% of performance Haswell, R11.5= FX has 77% of performance Haswell
PS:there was thread from Maxon Studio custom render scene and FX Vishera won clock to clock against Ivy Bridge i7.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Toll, ein 350 mm² 6-Kern 125W Serverdesign mit einem gut 100 mm² kleineren 2-Modul 95W APU-Design zu vergleichen. Wie "ernüchternd" ist denn die GPU Performance des X6?Spätestens gegen den Phenom II X6 aus 2010 sieht der Kaveri in Sachen CPU Performance einfach nur schwach aus.
Das würde ich so nicht unterschreiben. Zumindest der Geekbench hat gezeigt, dass die FPU ebenfalls ordentlich zulegen sollte. Man muss sie halt nur zu nutzen wissen. Das kann Cinebench offenbar immer noch nur bedingt. Zumindest was Nicht-Intel Prozessoren betrifft. Mal schauen, was Renderer wie POV-Ray oder C-Ray zeigen. Da dürften wir mehr Rückschlüsse über die Verbesserungen von Kaveri erhalten.Das haben wir doch schon vor Wochen spekuliert, dass der Cinebench eher bescheiden ausfallen wird!!!
Cinebench ist gestiger Code Code auf einem Chip der für andere Aufgaben konzipiert. Was soll daran niederschmetternd sein?
Die Stärken von Kaveri liegen im INT-Bereich und OpenCL.
swimmingbird
Cadet
- Mitglied seit
- 22.04.2008
- Beiträge
- 12
- Renomée
- 0
Wer vernuenftige Benchmarks sucht findet sie hier.
Zum Beispiel der 8350.
http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=1
Ich darf doch mal :
Vielleicht sollte man sich endlich mal von den alten schrott verabschieden und vernuenftige Betriebssyteme und Anwendungen einsetzen.
Wenn sich jemand an CB orientiert dann soll er das.
Steam gibts bereits auf Linux..
Ich wuensche allen einen guten Rutsch.
Zum Beispiel der 8350.
http://www.phoronix.com/scan.php?page=article&item=amd_fx8350_visherabdver2&num=1
Ich darf doch mal :
For many of the Linux computational benchmarks carried out in this article, the AMD FX-8350 proved to be competitive with the Intel Core i7 3770K "Ivy Bridge" processor. Seeing the FX-8350 compete with the i7-3770K at stock speeds in so many benchmarks was rather a surprise since the Windows-focused AMD marketing crew was more expecting this new high-end processor to be head-to-head competition for the Intel Core i7 3570K on Microsoft's operating system.
Vielleicht sollte man sich endlich mal von den alten schrott verabschieden und vernuenftige Betriebssyteme und Anwendungen einsetzen.
Wenn sich jemand an CB orientiert dann soll er das.
Steam gibts bereits auf Linux..
Ich wuensche allen einen guten Rutsch.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Toll, ein 350 mm² 6-Kern 125W Serverdesign mit einem gut 100 mm² kleineren 2-Modul 95W APU-Design zu vergleichen. Wie "ernüchternd" ist denn die GPU Performance des X6?
X6: 45 nm vs Kaveri 28nm, mal grob überschlagen:
350nm * 0,5 (32nm) * 0,75 (28nm) = 130nm
125WTDP * 0,6 (32nm) * 0,8 (28nm) ~ 60W
Als GPU nutzen wohl die meisten die einen X4/6, i5/7 nutzen eine dGPU und dann ist die iGPU Leistung des X6 irrelevant
Ich wünschte mir das AMD/INTEL im Highend-CPU-Bereich weiterhin CPUs ohne iGPU anbieten würden, solange bis die iGPU nicht überflüssig ist wenn eine dGPU genutzt wird.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Kleine Korrektur350 mm² * 0,5 (32nm) * 0,75 (28nm) = 130 mm²
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.373
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Nichts für ungut aber die Rechnung ist für die Tonne.......
Zum einen wäre der Ausgangspunkt der Verkleinerung die größere Strukturgröße und nicht die kleinere, was sich deutlich bei der entsprechende Prozentrechnung niederschlägt. Wie wurden also die Umrechnungsfaktoren erreicht?
Zum anderen kann man das nicht 1:1 auf die Leistungsaufnahme übertragen. Da machen einem bereits die Leckströme einen Strich durch die Rechnung und die 3 Fertigungsprozesse unterscheiden sich zum Teil grundlegend. Eine unbekannte ist allerdings wieviel Spannung der neue Fertigungsprozess für die entsprechende Taktfrequenz benötigt und dieser Wert ist extrem Ausschlaggebend für den Strombedarf.
Zum einen wäre der Ausgangspunkt der Verkleinerung die größere Strukturgröße und nicht die kleinere, was sich deutlich bei der entsprechende Prozentrechnung niederschlägt. Wie wurden also die Umrechnungsfaktoren erreicht?
Zum anderen kann man das nicht 1:1 auf die Leistungsaufnahme übertragen. Da machen einem bereits die Leckströme einen Strich durch die Rechnung und die 3 Fertigungsprozesse unterscheiden sich zum Teil grundlegend. Eine unbekannte ist allerdings wieviel Spannung der neue Fertigungsprozess für die entsprechende Taktfrequenz benötigt und dieser Wert ist extrem Ausschlaggebend für den Strombedarf.
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Dann schaut doch nochmal nach, wie groß die CPU-Kerne im Verhältnis zur Gesamtfläche jeweils sind. Und Immernoch ist die GPU im thermischen Budget Kaveris mit drin. Die K10-Kerne würden also mehr Platz wegnehmen und würden mehr Strom verbrauchen.
Dass jeder i7-Nutzer eine dGPU nutzt, ist Stuss, ebenso im Fall eines A10 natürlich. Bei X6-Nutzern dürfte der Anteil wegen der schlappen Chipsatzgrafik immerhin höher sein. Besonders im Notebook, aber auch in PCs, besonders im sehr marktstarken Business-Bereich, sind dGPUs Unsinn. Außer im Workstation-Bereich, aber auch nur in dem, wo tatsächlich höhere Grafik- oder GPGPU-Leistung benötigt wird.
Dass jeder i7-Nutzer eine dGPU nutzt, ist Stuss, ebenso im Fall eines A10 natürlich. Bei X6-Nutzern dürfte der Anteil wegen der schlappen Chipsatzgrafik immerhin höher sein. Besonders im Notebook, aber auch in PCs, besonders im sehr marktstarken Business-Bereich, sind dGPUs Unsinn. Außer im Workstation-Bereich, aber auch nur in dem, wo tatsächlich höhere Grafik- oder GPGPU-Leistung benötigt wird.
FalconFly
Admiral Special
cinebench testet ja nur die FPU?
ist bei spielen nicht im normalfall hauptsächlich die integerleistung entscheident?
Nein, bei Spielen zaehlt seit Zeiten des 80486 fast allein die FPU und heutzutage zum Teil die ueblicherweise daran angebundenen SIMD-Einheiten.
Es gab recht lange Zeit nach den 486'ern noch aus Kompatibilitaetsgruenden oft im BIOS eine Funktion, die x87 FPU explizit abzuschalten...
War lustig, der Performanceverlust in Spielen war geradezu exorbitant (30+fps -> 0.2fps gar kein Problem) .
Wie wichtig die x87 FPU eigentlich ist, kennen meist nur noch die alten Hasen, die den Unterschied damals noch live auf 80386 oder 80486SX vs. 80387 bzw. 80486DX miterlebt haben. Da liegen Welten dazwischen.
Ueber den Erfolg einer CPU hat seit dem i80486 seit jeher die FPU entschieden, daran hat sich bis heute nichts geaendert (IBM/Cyrix z.B. ist damals zu Pentium/PentiumMMX-Zeiten daran gescheitert - trotz sehr guter Integer-Leistung uebrigens).
AMD ueberlebte diese Zeit nur durch periodische Verbesserungen an ihrer FPU (z.B. K5 -> K6 -> K6-2 mit jeweils besserer FPU performance).
Der AMD Athlon war fast ausschliesslich wegen seiner neuen und damals hoch ueberlegenen FPU derartig erfolgreich (in Spitzen bis zu 47% bessere Performance als Pentium II bei gleichem Takt).
AMD's derzeit "geteilte" FPU im Bulldozer-Modulkonzept ist evtl. durch die Bank die groesste Schwachstelle im Design und das raecht sich.
Heute gehen zwar deutlich mehr Faktoren in die Spieleperformance ein aber die FPU ist nach wie vor der mit Abstand groesste Faktor.
Zuletzt bearbeitet:
Patrick.LaHaye
Commander
- Mitglied seit
- 13.02.2008
- Beiträge
- 180
- Renomée
- 12
Taktbereinigt ist das Cinebench-Ergebnis das alle vier Kerne nutzt 15,6% schneller - ungefähr das was an Effizienzverbesserung zuletzt vorhergesagt wurde.
Nur da der Takt verringert werden musste bleiben weniger als 5% Leistugssteigerung.
Wie war das nochmal? AMD hatte anfangs eine Leistungssteigerung von 30% in Aussicht gestellt.
---------- Beitrag hinzugefügt um 02:17 ---------- Vorheriger Beitrag um 02:06 ----------
Unter umständen macht es auch keinen Sinn bei den genutzten Algorithmen. Bzgl x264 haben die Entwickler ja auch gesagt, dass eine AVX-Unterstützung nichts bringen würde. Es gibt eben nicht für jeden Algorithmus der mit FP-Werten arbeitet einen sinnvollen Einsatz auf vier doubles oder acht floats gleichzeitig in einer Operation wie es mit AVX möglich ist.
Nur da der Takt verringert werden musste bleiben weniger als 5% Leistugssteigerung.
Wie war das nochmal? AMD hatte anfangs eine Leistungssteigerung von 30% in Aussicht gestellt.
---------- Beitrag hinzugefügt um 02:17 ---------- Vorheriger Beitrag um 02:06 ----------
Zu Cinebench: Der Schrott arbeitet immernoch maximal mit SSEx, modernere Befehlssätze unterstützt es, auch die 15er Version immernoch nicht. ...
Unter umständen macht es auch keinen Sinn bei den genutzten Algorithmen. Bzgl x264 haben die Entwickler ja auch gesagt, dass eine AVX-Unterstützung nichts bringen würde. Es gibt eben nicht für jeden Algorithmus der mit FP-Werten arbeitet einen sinnvollen Einsatz auf vier doubles oder acht floats gleichzeitig in einer Operation wie es mit AVX möglich ist.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.373
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Und wie steht es mit FMA3/4?
Ähnliche Themen
- Antworten
- 202
- Aufrufe
- 39K
- Antworten
- 12
- Aufrufe
- 4K
- Antworten
- 128
- Aufrufe
- 26K