News AMD verwirrt mit Ankündigung von 12 Kernen

Leute nicht so negativ XD
Der wird schon ein Intel Core i7-4960X in Boden stampfen ;-)
 
Und es gibt für AM3+ keinen 8 Kerner in der 95 Watt Klasse, zwar x mal angekündigt, jedoch nie erschienen. Verarsche pur...
Welche 95W FX-8 neben dem 8300 waren denn angekündigt?

Gruß,
Ritschie
 
Zuletzt bearbeitet:
obwohl es für Leute, die sich ein wenig mit der Materie auskennen, offensichtlich ist, dass es sich dabei um 12 Compute Cores handelt.
wo sind es denn 12 Compute Units (ein willkürlicher, undefinierter Begriff, der aber suggeriert, daß diese 12 Dinger gleich sind)? Es sind 4 CPU-Kerne (ob das "echte" sind, diskutieren wir hier mal nicht noch mal :]) und noch 512 Shader, die ein bißchen willkürlich in 64er-Blöcke zusammengefaßt sind (das ist zwar technisch so und nicht nur reines Marketing, aber man könnte auch z.B. 32 oder 16 Shader zusammenfassen als kleinste Einheit). Man kann auf den CPU-Kernen nicht das rechnen, was die GPU macht, und umgekehrt geht es auch nicht. Also kann man das genauso nicht in einen Topf werfen wie der 4 Kerner mit 3 GHz vermarktet wurde als "= also insgesamt 12 GHz".

Wenn ich mit mit 4 VW Golf mit Höchstgeschwindigkeit 200 km/h natürlich nicht 800 km/h auf der Autobahn fahren kann, dann kann ich auch nicht mit 4 Gölfen und 512 Mofas 1024+20=1044 Leute über die Autobahn befördern, da ich mit den Mofas nicht auf die Autobahn darf.
 
Welche 95W FX-8 neben dem 8300 waren denn angekündigt?

GrußRitschie

FX 8120 95 Watt

War gefühlt zu der Zeit kaum lieferbar und nur für OEM was CPU-World dazu ausspuckt.

Es zeigt jedenfalls das im Gegensatz zu Intel gerne an der Taktschraube dreht, aber es nicht schafft eine CPU in der Klasse zu bringen die dann ebenfalls Ihre 3Ghz+ erreicht und das als Massenfertigung. Mit Ausnahme des Servermarkts.
 

FX 8120 95 Watt

War gefühlt zu der Zeit kaum lieferbar und nur für OEM was CPU-World dazu ausspuckt.
Meines Wissens wurden beide CPUs immer nur für OEM angekündigt und da gab/gibt es diese auch. Von daher verstehe ich nicht genau, wo hier die "Verarsche" sein soll ;)

Gruß,
Ritschie
 
Weil der Endkunde, die Heizplatten angedreht bekommt und der Rest für den OEM und Servermarkt verbleibt, und das ist in meinen Augen Kundenverarschung. Und selbst die angeblich verfügbaren Stromspar-CPUs diverser Shops entwickelten sich später als 125 Watt Varianten, als ich damals einen Quad-Core in der 95 Watt Klasse gesucht hatte.
 
Weil der Endkunde, die Heizplatten angedreht bekommt und der Rest für den OEM und Servermarkt verbleibt, und das ist in meinen Augen Kundenverarschung. Und selbst die angeblich verfügbaren Stromspar-CPUs diverser Shops entwickelten sich später als 125 Watt Varianten, als ich damals einen Quad-Core in der 95 Watt Klasse gesucht hatte.

Es gab schon oft den Fall das OEMs selektierte CPU-Serien bekommen haben die es sonst nicht am Markt gab. Der Opteron 3365 aus der 3300er Serie ist als Serverchip unterwegs und entsprechend nur dort zu finden. Ich hatte damals auch danach gesucht, wobei es dann ganz schnell klar war das es diese CPU nicht als Einzelstück zu kaufen gibt. Das nun Produkbeschreibungen im Handel nicht immer korrekt sind ist nicht gerade selten.

cpuz_opteron3365.png
 
@Windhund: Jo, da kommt das mal zufällig gut hin, z.B. weil die Taktfrequenz der GPU und der CPU auch gerade passend sind. CPU und GPU sind einfach zu unterschiedlich, als daß man die über einen Kamm scheren kann.

Also nicht falsch verstehen, ich fänd's gut, wenn AMD seine gute GPU stärker als Ersatz für seine schwache CPU verwenden kann und damit mehr Umsatz generieren kann. Und allgemein wenn mehr Programme in OpenCL geschrieben werden. Aber wenn das Marketing einfach "alles, was da so rumrechnet" in einen Topf wirft, dann ist das irreführend und wird Kunden sich verarscht vorkommen lassen, sobald ihnen ihr Kumpel mit seinem gefährlichen Halbwissen dann zeigt, daß das ja gar kein 12-Kerner ist, wie sie beim Kauf gedacht haben, sondern nur ein 4-Kerner.
 
Erschwerend kommt hinzu, dass viele der Berechnungen gar nicht sinnhaft auf OpenCL umgesetzt werden koennen. Dieser Teil des "LKW" steht daher meistens ungenutzt in der Garage und rendert bestenfalls den Desktop bzw. alle klassischen Grafikaufgaben.

Und falls doch, konkurrieren die GPU und die CPU-Kerne um die fuer GPU-Beduerfnisse mickrige Speicherbandbreite, die bereits fuer die GPU allein vorne und hinten nicht ausreicht (mit dem Problem haben intels shared memory GPUs ebenso zu kaempfen).
Ist mir absolut unverstaendlich, warum AMD seinen APUs nicht von Anfang an dedizierten Speicher mitgegeben hat, das Sideport Memory damals fuer die klassischen OnBoard-GPUs war eigentlich schon die richtige Richtung.
Mit ein paar Jahren Verspaetung scheinen sie es aber bemerkt zu haben, wenn man die Stacked-DRAM News liest - das wird allerdings mit der Umsetzung wohl laenger dauern als so etwas wie einfaches Sideport-RAM.
 
Zuletzt bearbeitet:
Sideport Memory hätte genausowenig funktioniert, wie tripple oder quadchannel RAM, da einfach nicht genügend Pins von CPU zum Mainboard zur verfügung stehen. Die einzige Möglichkeit ist RAM in der CPU unterzubringen und da ist die Technik einfach noch nicht so weit gewesen.

Evtl war Kaveri ja schon dafür vorgesehen mit seinem 4 Kanal interface und ca. 30% brachliegender GPU performance, nur die Technik war noch nicht so weit. Hoffen wir, dass es AMD mit carrizo gelingt.
 
@Windhund: Jo, da kommt das mal zufällig gut hin, z.B. weil die Taktfrequenz der GPU und der CPU auch gerade passend sind. CPU und GPU sind einfach zu unterschiedlich, als daß man die über einen Kamm scheren kann.

Also nicht falsch verstehen, ich fänd's gut, wenn AMD seine gute GPU stärker als Ersatz für seine schwache CPU verwenden kann und damit mehr Umsatz generieren kann. Und allgemein wenn mehr Programme in OpenCL geschrieben werden. Aber wenn das Marketing einfach "alles, was da so rumrechnet" in einen Topf wirft, dann ist das irreführend und wird Kunden sich verarscht vorkommen lassen, sobald ihnen ihr Kumpel mit seinem gefährlichen Halbwissen dann zeigt, daß das ja gar kein 12-Kerner ist, wie sie beim Kauf gedacht haben, sondern nur ein 4-Kerner.
Daher ja Core Compute Units und nicht Kerne, Kerne sind den CPUs vorbehalten.
Soweit ich das verstanden habe werden die Shader zu einer Funktion kombiniert, dadurch hat eine meiner HD 7970 = 32 CUs.
Interessant ist auch, dass vom dynamic (V)RAM gebrauch gemacht wird mit LuxMark v2.

Wenn nun eine dGPU dazu kommt, was würde dagegen sprechen die iGPU CUs zum füttern zu nutzen?
 
Zuletzt bearbeitet:
Alle Funktionsgruppen durcheinander zu werfen und zu "Cores" zu erklären ist wirklich irreführend gegenüber dem Verbraucher. Zumal man einige Monate vorher noch viel Wert auf die Unterscheidung zwischen "Module" und "Core" bei der Bulldozer Architektur gelegt hat. Andererseits kann man AMD verstehen. Man muss den Verkauf der (größeren) APUs um jeden Preis ankurbeln. Die Verkaufszahlen bleiben angeblich schon seit einiger Zeit weit hinter den Erwartungen zurück. Zu langsam, zu stromhungrig und zu teuer lauten nur einige der teils unberechtigten Vorwürfe. So langsam schwimmen AMD die Felle davon. Sie müssen retten, was noch zu retten ist. Und wenn man dann beim Marketing etwas über das Ziel hinausschießt, ist das einfach den Umständen geschuldet. Im Grunde kommt es eh nicht auf die Anzahl der "Cores" an. Es zählt nur die Leistung, die freigesetzt wird. Von mir aus könnte AMD jede Shader Unit im iGPU Teil einzeln zählen. Letztendlich basiert die Kaufentscheidung der meisten Käufer auf Benchmarks und dort lässt sich nicht derart tricksen.
 
Zuletzt bearbeitet:
wo sind es denn 12 Compute Units (ein willkürlicher, undefinierter Begriff, der aber suggeriert, daß diese 12 Dinger gleich sind)? Es sind 4 CPU-Kerne (ob das "echte" sind, diskutieren wir hier mal nicht noch mal :]) und noch 512 Shader, die ein bißchen willkürlich in 64er-Blöcke zusammengefaßt sind

Wieso soll das undefiniert sein? Selbst wenn es nur von AMD so definiert wurde (mit den 64er Blöcken) und keinen weiteren technischen Hintergrund hätte, wäre es immer noch eine Definition.
Versteh(t) mich nicht falsch, ich finde diese simple Zusammenfassung bzw. Addition auch nicht richtig, aber, wie schon zweimal geschrieben, sollte es für einen Hardware-Redakteur eindeutig sein, was mit diesen 12 "Cores" gemeint ist. Nur darum ging es mir, nicht ob diese Bezeichnung nun gut oder schlecht ist.

LG

PS: Bzgl. der leidigen "echte Kerne" Thematik plädiere ich zur Verwendung des Begriffs "klassische Kerne", welcher mMn viel weniger unsinnig ist.

---------- Beitrag hinzugefügt um 16:53 ---------- Vorheriger Beitrag um 16:48 ----------

Ist mir absolut unverstaendlich, warum AMD seinen APUs nicht von Anfang an dedizierten Speicher mitgegeben hat, das Sideport Memory damals fuer die klassischen OnBoard-GPUs war eigentlich schon die richtige Richtung.

Solche Aussagen halte ich schon immer für sehr überheblich. Es kann doch nicht allen erstes jemand glauben, dass AMD keine Art schnellen Zwischenspeicher verbaut hätte (wie auch immer diese aussehen müsste, um hUMA etc. nicht ad absurdum zu führen), wenn dieser technisch und wirtschaftlich sinnvoll umsetzbar gewesen wäre. Natürlich ist es ihnen bewusst, dass die Bandbreite in vielen Fällen der Flaschenhals ist, aber in der Hinsicht gab es wohl einfach keine vertretbare Lösung.
 
Die Verkaufszahlen bleiben angeblich schon seit einiger Zeit weit hinter den Erwartungen zurück. Zu langsam, zu stromhungrig und zu teuer lauten nur einige der teils unberechtigten Vorwürfe. So langsam schwimmen AMD die Felle davon. Sie müssen retten, was noch zu retten ist.

Aber sie sind auch nicht ganz unberechtigt.

Ich finde die Teile schon zu teuer, die schwache CPU-Leistung kann nicht durch die GPU-Leistung egalisiert werden. Es sei denn es gibt wirklich ein Anwender der ein optimales Anwendungsprofil bietet. Man kann im Falle einer APU nicht einfach den CPU oder GPU-Part auswechseln, sondern es geht nur beides zusammen

AMD hat eben den Endkundenfokus vor langer Zeit verloren, da sie auch im OEM-Markt nie so richtig stark waren rächt sich das; nicht irgendwann, sondern schon seit Jahren
 
Für 200€ kriegt man aber auch einen Xeon E3-1231 v3, der eine adäquate Alternative zum i7 ist.
So ist es und der der leistet auch noch ungleich mehr, sitzt in einer moderneren Plattform (mit nativen PCIe 3.0 und USB3), verfügt über eine geringere Leistungsaufnahme und viel bessere SW-Unterstützung (Intel Compilter und Libs). Gerade letzteres verzerrt zwar oft in Benchmarks das Bild noch weiter zugunsten Intels, aber AMD hat es eben immer versäumt da gegen zu halten und das rächt sich eben irgendwann.

dann kann ich auch nicht mit 4 Gölfen und 512 Mofas 1024+20=1044 Leute über die Autobahn befördern, da ich mit den Mofas nicht auf die Autobahn darf.
Aber 512 Mofas fahren doch zusammen 12800km/h, damit fahren die Marketingleute dann nicht auf der Autobahn, weil sie die Mofas da gar nicht ausfahren können 8)

Weil der Endkunde, die Heizplatten angedreht bekommt und der Rest für den OEM und Servermarkt verbleibt, und das ist in meinen Augen Kundenverarschung.
Dann mach doch das Gegenteil von OC, denn kannst Du ja eine weitaus geringere Leistungsaufnahme erreichen, wenn Du den Takt und die Spannung senkst.

Die einzige Möglichkeit ist RAM in der CPU unterzubringen und da ist die Technik einfach noch nicht so weit gewesen.
Das nennt sich Cache und gibt es schon lange, macht nur die Chips groß und damit teuer. Daher versucht man ja auch das Gegenteil von dem zu tun, was man bei den GPUs gemacht hat: Beides auf getrennten Dies unterzubringen.

Man muss den Verkauf der (größeren) APUs um jeden Preis ankurbeln. Die Verkaufszahlen bleiben angeblich schon seit einiger Zeit weit hinter den Erwartungen zurück. Zu langsam
Das sind sie auch, wenn man die CPU Leistung vergleicht. Die ganze APU Idee war ja, dass die GPU aufgrund der Integration selbst kleine parallelisierbare Aufgaben effizienter übernehmen kann, weil die Daten nicht erst in deren Speicher kopiert werden müssen. Da man andererseits viel leichter mehr GPU Kerne als CPU Kerne bauen kann und auch beim Takt keine großen Sprünge mehr zu erwarten sind, wollen man so dem Dilema entkommen, dass es viel aufwendiger ist die Parallelität mit noch mit CPU Kernen zu erreichen. Die Idee ist ja auch gut, nur fehlt es an der softwareseitigen Unterstützung, mit der die Sache steht oder fällt. Da SW immer um Jahre bis Jahrzehnte hinter der HW Entwicklung zurückhängt, wird es auch noch eine lange Durststrecke für AMD, zumal die Vernachlässigung der Effizienz und Leistung der CPU Kerne AMD weit ins Abseits befördert hat, damit auch weit ab vom dem Interesse der SW-Hersteller.

So langsam schwimmen AMD die Felle davon. Sie müssen retten, was noch zu retten ist. Und wenn man dann beim Marketing etwas über das Ziel hinausschießt, ist das einfach den Umständen geschuldet.
Bei der eigentlichen APU Idee passt es ja irgendwie auch, nur gibt es eben keine/kaum SW, mit der man sowas auch effizient nutzen kann. Die bestehenden Programme basieren meist auf reiner CPU Berechnung und geben allenfalls große Aufgaben an eine GPU ab, aber gegen große GPUs kommen die integriert nicht ab, dafür fehlt es an Platz auf dem Chip, TDP und der Speicheranbindung. Bei den kleine Aufgaben bekommen sie Druck durch die SIMD Befehlssatzerweiterung die in den x86 immer stärker Einzug halten und da AMD mit seinem Marktanteil nur noch ein Nischenprodukt ist, dürfte klar sein, welche Technik die SW Hersteller zuerst untersützen werden.

Letztendlich basiert die Kaufentscheidung der meisten Käufer auf Benchmarks und dort lässt sich nicht derart tricksen.
Aber ganz im Gegenteil, gerade da wird erst richtig getrickst!
 
@Holt, wollte kein OC +/- betreiben !

Habe allerdings den Turbo-Modus deaktiviert, traut man dem Asrock Tool ohne Takt und Spannungserhöhung würde ich jetzt in der 95 Watt Klasse liegen. Wenn die Server-CPUs nicht so teuer wären, hätte ich mir schon längst den Opteron 3300 auf meinem Board gesetzt, aber gut anderes Thema.
 
Aber ganz im Gegenteil, gerade da wird erst richtig getrickst!
Kommt ganz auf die Praxisnähe des gewählten Benchmarks an, würde ich sagen. ;)

Man kann schließlich auch mit Real Life Software (TrueCrypt, 7-Zip, ect.) benchen.
 
Zurück
Oben Unten