AMDs zukünftige APU/CPU-Strategie

Warum muss es unbedingt eine 8-Core-Version von Jaguar geben? Wie wäre es mit einer 6-Core-Variante und Dualchannel...als eigenes Derivat ähnlich dem Thuban? Acht Cores machen wären womöglich stark Bandbreiten-limitiert.
Es muss garnichts geben, das war nur ein Beispiel von mir, wenn Jaguar HT & Dual Channel DDR3 hätte, dann warum nicht gleich auch ein MCM Package mit 2x Kabini DIEs bauen, das wäre vielleicht günstiger als Regor/Propus.
Übrigens, Jaguar Core = 3,1mm² @28nm & Bobcat = 4,9mm² @40nm
.
EDIT :
.

Und ich schreib einfach mal Dualchannel (aber wissen tu ich auch nix) ;D
Der Speichercontroller wurde von 32 auf 40 Bit erweitert, wäre das Dual Channel würde sich das aufbohren eig. nicht lohnen.
 
Der Speichercontroller wurde von 32 auf 40 Bit erweitert, wäre das Dual Channel würde sich das aufbohren eig. nicht lohnen.

Wenn schon wurde der Adress-Raum von 32- auf 40-Bit erweitert, d. h. er kann mehr als 4BG ansprechen. Ein Speicher-Controller mit 40-Bit breiter Datenanbindung macht keinen Sinn.
 
Ja die Jaguar Kerne sollen nicht schlecht sein, 4 OoO Kerne mit 2MB L2, 128Bit FPU, alle SSE Befehle & AVX Instruction, +15% IPC & +10% Takt ist ein guter Fortschritt gegenüber Bobcat.
Abwarten wie groß die APU dann ausfallen wird, Bobcat ist in 40nm > 77mm² groß, Jaguar in 28nm sollte mit 4 Kerne nicht viel größer ausfallen.
Der einzige Nachteil ist Singlechannel DDR3 & kein FMA Support, sonst hätte man via HT & MCM 8 Kerne erwarten können, das wäre doch was eine APU mit 8 Kerne unter 200mm² bzw. 2x 80mm² *lol*


Bobcat- und Jaguar sind sehr gelungen, aber sie sind in ihren Funktionen auch bechränkt. Die Frage ist um wieviel die Diefläche diese Kerne ansteigen würden, wenn die Pilldriver Kerne auslaufen und er alle Einsatzgebiete abdecke müsste? Nicht das dieser Prozessor dann für sein Einsatzgebiet (Subnotebooks, Tabletts, Nettops, Netbooks) nicht mehr geeignet ist.

Wieso eigentlich eine APU mit 8 Kernen? Das versteh ich nicht, denn dort wo ein solcher Prozessor gut, ist auch der Bulldozer gut. Und die Softwarestruktur läuft doch auch nur langsam in diese Richtung. Über welchen Zeithorizont reden wir eigentlich?

Ist schwer, dieses Thema mit ein paar Worten zu erfassen. Die Thematik ist mir schon klar. Vielleicht hätte sich AMD ohne die Machenschaften von Intel auch gut im X86 Sektor behauptet.
Ist aber nicht. Jetzt geht es halt darum, die Zukunft zu gestalten.


Edit:
Ich meinte das es nicht am wollen gelegen hat oder das nichts in diesen Bereich getan wurde. Im Gegenteil zu den Athlon 64 Zeiten hat AMD verstärkt versucht ein Bein in die Tür der OEM, Serverhersteller und gr. Händler zu kommen. Das hat ja auch nur begrenzt funktioniert. Das ist nun Vergangenheit.
Ich sehe nicht umbedingt das AMD ein Hardware Problem hat. Selbst das Fazit bei CB zu Trinity und Vishera war recht positiv. Klar wäre jetzt ein günstigeres Design besser, nur ob nun AMD wesentlich besser da stehen würde (ich habe da meine Zweifel)? Ich hoffe mal das AMD durch die von dir aufgezählten neuen Geschäftsfelder zumindest mittel- bis langfristig besser da steht. Sondern das Drumherum passt nicht.
Dell scheint in Dtl. keine Rechner mehr mit AMD Prozessoren zu verkaufen. Zumindest auf ihrer HP oder bei Geizhals habe ich keine gefunden (Polen scheint für NB kauf ein lohnender Ort zu sein. Dort ist die Auswahl, auch bei den anderen Herstellern, wesentlich größer.) . Bei schlechten bis miesen Auswahl braucht man sich nicht zu wundern, dass auch die Verkäufe so sind (Falls jetzt jemand mit der fehlenden Nachfrage kommt. Darauf antworte ich nur: oft behaupet, nie bewiesen. Demnach müssten wir alle auch Glossy Displays wollen oder die massenhaften Probleme bei einer Hotline sind alle total neu)
 
Zuletzt bearbeitet:
@fluant
Ich habe mich irgendwie falsch ausgedrückt: Intel hat OpenCL konsequent gemieden, bis man es nicht mehr konnte, weil es sich trotz(!) Intels konsequenter Nichtbeachtung inzwischen stark verbreitet hat und für parallele Programmierung eben zahlreiche Vorteile bietet. Jetzt muss man natürlich irgendwie auf die schon bestehende Situation am Markt reagieren.

Intel hat sein OpenCL SDK, welches in der ersten Version mehr schlecht als recht war, im Juli 2011 veröffentlicht (Die Spezifikation von OpenCL 1.0 stammt vom 18.November 2008 ). AMDs erste Implementierung war, soweit ich weiß, im Ati Stream SDK 2.0 im August 2009. In diesen zwei Jahren hat AMD im PC-Bereich (abgesehen von Apple) weitgehend alleine für OpenCL gekämpft, weil Nvidia sich stärker auf CUDA konzentriert hat.

Bis Juni 2012 war zudem AMDs OpenCL-CPU-Treiber auf Intel CPUs schneller als AMDs eigener Compiler, was angesichts von Intels allgemein bekanntem Compiler KnowHow ein desaströses Ergebnis ist. Das scheint man bei Intel nun endlich mit dem 2013er SDK hinter sich zu lassen (wohl nicht ganz zufällig zum Zeitpunkt der Markteinführung der XeonPhi).

Fakt bleibt aber: Es hätte mit OpenCL deutlich schneller gehen können, wenn Intel sich dem nicht so lange verweigert hätte. Intel macht die Dinge erst dann, wenn sie für sie selbst von Nutzen sind (was nachvollziehbar ist, schließlich sind die nicht die Wohlfahrt, sondern ein börsennotiertes Unternehmen), das führt aber dazu, dass AMD kaum Vorgaben machen kann, ohne sich daran kaputtzuarbeiten, wenn Intel nicht mitmacht. Gleichzeitig kann AMD seine Vorteile nicht ausspielen, weil Intel daran kein Interesse hat.

Es gibt eine Serie von Dingen, die AMD versucht hat zu etablieren und die letztlich an der Nichtunterstützung durch Intel gescheitert sind. (Dicke Ausnahme AMD64) Dagegen kann Intel Vorgaben ohne größere Schwierigkeiten am Markt durchdrücken, einfach durch die schiere Masse an Produkten, die damit auf den Markt kommen. (Dicke Ausnahme: IA64).
Das kostet halt ziemlich viel Energie und Geld bei AMD. Und das ist das Problem, wenn man einen riesigen Mitbewerber hat, der quasi alles blockieren kann, einfach indem er nicht mitzieht.

Und das trifft essentiell AMDs APU-Konzept. Man hatte einen handfesten Hardware-Vorteil, konnte ihn aber softwareseitig nicht nutzen, weil Intel erst mit einer OpenCL-Unterstützung in die Puschen kommt, wenn man den eigenen HW-Nachteil zumindest neutralisiert hat. Das macht Intel voraussichtlich mit Haswell (da AMD ja mit Kaveri offensichtlich noch länger braucht oder der gar nicht kommt oder wie auch immer).
 
Zuletzt bearbeitet:
BTW aus den letzten Mercury-Zahlen ermittelt (von mir auf IH kopiert):
Nvidia: 11M units
AMD: 5.7M dGPUs + 7.8M iGPUs = 13.5M units
 
Puh, ich wusste nicht, dass AMD soviel weniger dGPUs absetzt, wie Nvidia. Erschreckend finde ich...
 
Die Frage ist: woran liegt's? GCN braucht sich nicht zu verstecken.
 
Woran liegt's wenn wir Intel aus der Rechnung ausklammern (soweit möglich, Vergleich mit nVidia)?
 
Bis Juni 2012 war zudem AMDs OpenCL-CPU-Treiber auf Intel CPUs schneller als AMDs eigener Compiler, was angesichts von Intels allgemein bekanntem Compiler KnowHow ein desaströses Ergebnis ist. Das scheint man bei Intel nun endlich mit dem 2013er SDK hinter sich zu lassen (wohl nicht ganz zufällig zum Zeitpunkt der Markteinführung der XeonPhi).

Es wäre peinlich, wenn AMD trotz des Erfahrungsvorteils sich gleich vom ersten Intel SDK hätte übertrumpfen lassen müssen.

Fakt bleibt aber: Es hätte mit OpenCL deutlich schneller gehen können, wenn Intel sich dem nicht so lange verweigert hätte.

Hier erneut die Nachfrage, wo ist die Quelle für die Behauptung? AMD hat es doch nur wegen der GPUs gepusht. Natürlich pusht es derjenige, der davon im besonderen Maße profitieren kann. Und das ist bei AMD als Anbieter von schnellen GPUs der Fall. Oder meinst du mit den ollen GMA Krücken bis Clarkdale bzw. eigentlich SB hätte das einen besonderen Sinn gemacht? Abgesehen davon, dass die älteren iGPUs ohne frei programmierbaren EUs OpenCL inkompatibel sind. Oder möchtest du ernthaft kritisieren, dass Intel den CPU-OpenCL Support für Nehalem hätte bringen sollen? Als ob AMD sich so sehr mit OpenCL ins Zeug gelegt hätte, wenn sie nicht dafür gescheite GPUs besitzen würden. Das ganze APU Marketinggeschwafel war darauf ausgelegt. Intel ist ein Gründungsmitglied von OpenCL. Eine Verweigerung kannst du ohne sichere Beweisführung nicht in den Raum stellen. Du kannst höchstens fehlende dedizierte GPUs von Intel oder OpenCL fähige iGPUs kritisieren.
 
LoRDxRaVeN schrieb:
Puh, ich wusste nicht, dass AMD soviel weniger dGPUs absetzt, wie Nvidia. Erschreckend finde ich...
Wenn das denn auch alles dGPUs bei nV sind. Wie sieht es denn z.B. mit Tegra bei nV aus? Sind die Verkaufszahlen davon in den Zahlen von Dresdenboy inbegriffen? Wenn ja, sieht die Sache doch gleich um einiges entspannter aus. ;)
 
Wenn das denn auch alles dGPUs bei nV sind. Wie sieht es denn z.B. mit Tegra bei nV aus? Sind die Verkaufszahlen davon in den Zahlen von Dresdenboy inbegriffen? Wenn ja, sieht die Sache doch gleich um einiges entspannter aus. ;)
Sorry, da fehlte in der Schnelle noch etwas Kontext ;) Ich antwortete auf eine Diskussion wg. AMDs Anteil von 34% bei dGPUs in Notebooks.

Die restlichen Zahlen stehen hier:
http://investorvillage.com/mbthread.asp?mb=476&tid=12299056&showall=1
 
@fluant
Peinlich ist da gar nichts. Intel hat schließlich eine Menge KnowHow in dem bereich und hatte zwei Jahre Zeit einen entsprechenden Compiler und Treiber zu basteln.
Es ist ganz einfach so, dass Intel das Zeug nicht unterstützt hat. Aus fertig basta. Sie haben zwei Jahre länger gebraucht um einen entsprechenden Treiber zu veröffentlichen als AMD. Und anfangs war das auch nur ein CPU-Treiber (den hätte man tatsächlich auch schon für die Nehalems bringen können). Was haben die also zwei Jahre gemacht, wenn sie Gründungsmitglied sind? Sie haben sich zurückgelehnt und gedacht: Lass die mal machen.
Was muss ich da beweisen? Dass es mit OpenCL schneller gegangen wäre. Naja...das ist Spekulation, aber doch wohl eine nachvollziehbare. Oder warum sollte nun Intel jetzt plötzlich sonst auf die Idee kommen, dass OpenCL doch eine gute Lösung ist...?

Aber um meine Argumentation noch etwas auszuweiten, um was es mir geht:
OpenCL kann deutliche Vorteile bei parallelisierbaren Workloads bringen, da stimmst Du mir doch zu oder?
Und genau dafür hatte AMD eine Hardware- und Software-Lösung, nämlich die Möglichkeit via OpenCL CPU und GPU gemeinsam für Rechenaufgaben zu nutzen.
Doch um das zu etablieren braucht man Entwickler, die sich auf sowas einlassen.
Nun ist es im x86-Softwarebereich (und auch woanders) aber so: Die Programmierer schauen sich erstmal an, was der Markt unterstützt, bevor sie anfangen für exotische Nischen zu programmieren. (Kosten-/Nutzenrechnung).
Und wenn Intel etwas nicht unterstützt, dann ist AMD leider so eine exotische Nische.

Nun hat Intel zwei Jahre lang nicht mitgezogen, was OpenCL angeht. Keine Treiber (der CPU-Treiber von AMD hat ja netterweise auch mit Intel-CPUs funktioniert), keine Tools, kein gar nichts.
AMD stand alleine, hat die Entwickler beackert und teils finanziert, hat Tools entwickelt, hat die Werbetrommel gerührt. Intel hat in der Zeit was gemacht? Genau....gar nichts. Müssen sie auch nicht. Darum geht´s mir nicht. intel hat nicht unfair gespielt. Aber sie können Innovationen verhindern, einfach indem sie nicht mitziehen.

Und zu was führt das: AMD strampelt sich mit einer eigentlich super Möglichkeit tot. Viel Aufwand, wenig Nutzen. Und das liegt einzig und allein an der Marktverteilung im x86-Bereich. Und daher meinte ich wäre der x86-bereich für AMD eine Sackgasse und mit jedem Tag an dem man Marktanteile verliert, wird´s ein bisschen enger.
 
Zuletzt bearbeitet:
Sorry, da fehlte in der Schnelle noch etwas Kontext ;) Ich antwortete auf eine Diskussion wg. AMDs Anteil von 34% bei dGPUs in Notebooks.

Die restlichen Zahlen stehen hier:
http://investorvillage.com/mbthread.asp?mb=476&tid=12299056&showall=1
Besten Dank für die Quelle. Nun dann sind die Werte von nV in der Tat lediglich die dedizierten Karten im Notebookbereich. Dies hört sich dann in der Tat recht schlimm für AMD an. Nun kann man aber immernoch vorhalten, dass dies mit der nächsten Generation von Grafikeinheiten wieder genau umgekehrt aussehen kann. Gerade dort schwanken die "Baufirmen" doch heftig zwischen AMD und nV. ;)
 
Mit Haswell & Ultrabook wird Nvidia wieder großen Boden verlieren, anders als Sandy/Ivy Bridge werden die Ultrabooks keine dedizierte Grafikkarten mehr brauchen, durch den Wachstum von Ultrabooks wird der Marktanteil von Nvidia Grafikchips dann Zeit für Zeit schrumpfen.
 
Mit Haswell & Ultrabook wird Nvidia wieder großen Boden verlieren, anders als Sandy/Ivy Bridge werden die Ultrabooks keine dedizierte Grafikkarten mehr brauchen, durch den Wachstum von Ultrabooks wird der Marktanteil von Nvidia Grafikchips dann Zeit für Zeit schrumpfen.

Die Argumentation ist doch sehr dünn. Wenn es danach geht bräuchte schon heute kaum mehr einer eine dedizidierte GPU. Verbaut wirds trotzdem. Verkauft sich halt besser. Den Abgesang auf dedizidierte GPUs höre ich nun schon seit Jahren und trotzdem macht Nvidia nach wie vor ausgezeichnete Umsätze damit. Der einzige die richtig Federn gelassen hat ist AMD. AMD GPU + Intel CPU ist anscheinend nicht sonderlich beliebt.
 
Zuletzt bearbeitet:
Die iGPU von Haswell "GT3" ist eine Verdopplung der "GT2 " GPU, was willste dann noch mit einer dezidierten GPU im Ultrabook Markt? :]

Sry für das offtopic.
 
Ob er dann endlich der GPU des Llano/Trinity paroli bieten kann....?
Mal ganz ehrlich...die GPU des IB wurde zum Teil auch als Llano Killer gehandelt und was blieb davon übrig?
Wer mehr GPU Leistung will wird auch ein entsprechendes Modell kaufen wollen oder sollen diese gleich zu Apple gehen?
 
Die iGPU von Haswell "GT3" ist eine Verdopplung der "GT2 " GPU, was willste dann noch mit einer dezidierten GPU im Ultrabook Markt? :]

Sry für das offtopic.

An eine dedizierte GPU wird man trotzdem nicht (überall) rankommen. Und 2014 gibts dann wieder 70% mehr Leistung.
 
Mit Haswell & Ultrabook wird Nvidia wieder großen Boden verlieren, anders als Sandy/Ivy Bridge werden die Ultrabooks keine dedizierte Grafikkarten mehr brauchen, durch den Wachstum von Ultrabooks wird der Marktanteil von Nvidia Grafikchips dann Zeit für Zeit schrumpfen.

Jau. Kommt hinzu das Intel mit Phi nVidias Premiumprodukte angräbt. Für nVidia wird es hart.
 
Wie hoch ist der apfel-Anteil?

Wird auch Weltweit 5% geschätzt. Somit wird wohl der Hauptteil vom Martanteilzuwachs durch Apple zustandekommen, und das der bei Notebook höher liegt wird wohl daran ligen das Apple in denn iMacs auch Notebook HW verwendet.
 
Soweit auch meine (bisherige) Einschätzung. Ich bin der Sache mal auf den Grund gegangen.

http://images.apple.com/pr/pdf/q3fy12datasum.pdf

Unit Sales 2012 (Q2 + Q3)
2,2 Mio iMac
5,8 Mio MacBook Pro ("Mac Portable")

Wenn ich das richtig sehe, sind in jedem iMac und jedem MacBook eine Ivy Bridge CPU und eine Kepler GPU verbaut. Apple als Zünglein an der rot-grünen Waage ? - von wegen!
 
Zurück
Oben Unten