AMD Kabini APU / Jaguar CPU + Graphics Core Next GPU, 2-4 Kerne, 28nm TSMC, 2013

http://www.engadget.com/2012/12/16/security-exploit-opens-samsung-exynos-devices-to-attack/#comments



>It isn't the only avenue for attack on an Android handset,
>but it is an exceedingly easy attack.

>So far, Alephzain has confirmed that the Galaxy S II, III, Note II and the
>Meizu MX are at risk, but notes that the exploit might work on any device
>running a Exynos 4210 or 4412 processor.

Könnt ihr euch noch daran erinnern, dass sich mal ein Sicherheitsfuzi darüber mukiert hat, dass ein Hyperthreading-Thread einen anderen Hyperthreading-Thread durch ausmessen der Cache-Latency (unter Umständen) aushorchen kann. Durch langes beobachten kann man RSA-Schlüssel erraten. Das ganze war eine sehr theoretische Lücke.
http://www.heise.de/security/meldung/Schneller-RSA-Schluesselklau-durch-Sprungvorhersage-120846.html

Die Android-Lücken sind real. Diese damalige Lücke wurde nie wirklich genutzt.
Ich freu mich schon auf die ersten ARM-Server - dann müssen wir uns noch mehr vor der chinesischen Industriespionage fürchten.
 
also ich gehe zwar von einer leistungssteigerung beim Kabini aus, aber dass er den A6 ersetzten soll ist bissel mehr als ich erwaten würde
Kabini: A6/A4/E2/E1 (BGA only. So, AMD is going to make more then 90% of their notebook APUs without a socket. High hopes for Jaguar?)
Quelle
 
also ich gehe zwar von einer leistungssteigerung beim Kabini aus, aber dass er den A6 ersetzten soll ist bissel mehr als ich erwaten würde
Quelle

Die Sache dürfte einfach die sein, dass das Trintiy-Die für die zu billigen A4/A6 zu teuer war. Ich hoffe, dass Richland endlich einigermaßen akzeptable Yields liefert, sodass nur noch sehr wenige der Dice um ein Modul gekappt werden müssen, sodass es dann die 1Modul-Variante in hoffenltich geringen Stückzahlen gibt, lediglich zur Reste-Verwertung.

Die Massen-APU müsste Jaguar werden, weil AMD nur damit Geld verdienen dürfte. Und wenn AMD das klug macht, dann wird es eine Jaguar-Quad-Variante mit Dual-Channel-Ram und einem zu Richland kompatiblen Pinout geben, damit in ein und dem selben Design Jaguar- und Richland-APUs verbaut werden können. Die billigen Varianten erhalten dann Jaguar-APUs und die teueren Notebook-Varianten eine Richland-APU. Das spart Kosten auf der Seite der Design-Entwicklung und ermöglicht AMD, den Großteil der APUs in Form der billigen Jaguar-Dice auszuliefern. Dann sehe ich die Chance, dass AMD wieder Land sehen kann. Richland ist zu teuer für die billigen Designs. Aber das Ganze klappt nur, wenn Jaguar gut genug wird, dass eine Quadcore-25W-Jaguar-APU auch leistungsfähig genug für den Mainstream wird.

AMD muss für die OEMs wieder interessante Produkt-Linien anbieten. Und das bedarf, dass das Ganze fexibler wird. Einer FX-Plattform ist eine Nischenplattform, die null Attraktivität hat und damit kein OEM noch interessiert. Nur eine vernünftige Kombi der Jaguar- und Richland-Produkte, die flexbile Desings ermöglichen, erscheinen mir attraktiv genug. Wenn AMD das cool genug macht, wird man allen APUs kompatible Pinouts verpassen, sodass für die billig-Lösungen einfach Teile deaktiviert sind.
 
Zuletzt bearbeitet:
Solange sie den A6 für 2133 freigeben, reicht wohl auch single-channel. So viel Shader bekommt der Chip ja sowieso nicht.
 
Die hoch getakteten Speichermodule verbrauchen aber viel Energie und dürften höhere Ansprüche an das Mainboard-Design stellen. Andererseits wäre es klug, beide Varianten verfügbar zu machen: kleinere Board-Designs mit nur Single-Channel-Ram und die Möglichkeit, Dual-Channel zu nutzen, was die Boards, die auch Richland ermöglichen, sowieso haben würden.

Flexibilität ist Trumpf; das muss AMD endlich nutzen, um die OEM mit variablen Designs gewinnen zu können. Die bisherige Abgrenzungspolitik, dass bestimmte CPUs/APUs nur für vorgegebene Produkte genutzt werden dürfen, kann sich AMD nicht mehr leisten. Von daher macht es womöglich Sinn, wenn AMD die "Vision"-Kennung und damit verbundene Zwänge weg lässt. Können womöglich die Vision-Sticker dennoch weiter verwendet werden, wenn die Designs andere - von den APUs unabhängige - Kriterien erfüllen, die aber nicht mehr zwingend gefordert werden?
 
Zuletzt bearbeitet:
"Viel Energie" ist für ein A6-Modell nebensächlich. Du darfst ja außerdem nicht vergessen, dass man ein Modul einspart. Kommt dann auf die verbauten Chips drauf an, wieviel Strom man da verbraucht, aber recht viel mehr wirds nicht sein.

Dual Channel hat halt den Nachteil, dass es relativ viel DIE-Fläche frißt. Der 2. Kanal muss angebunden werden, dafür bräuchte es viel BGA-Kontakte, und entsprechend Kontakte auf dem DIE.

Dual Channel wäre nett, ja, aber Kabinis Hauptmarkt ist klein und billig, dafür ist dann kein Platz. Fürs A6 Segment reichts dann halt nicht zu 100%, aber besser als ein runtergetakteter Bulldozer ists allemal, billiger sicherlich auch. Ist halt quasi Resteverwertung, nur andersherum.
 
"Viel Energie" ist für ein A6-Modell nebensächlich...
... Fürs A6 Segment reichts dann halt nicht zu 100%, aber besser als ein runtergetakteter Bulldozer ists allemal, billiger sicherlich auch. Ist halt quasi Resteverwertung, nur andersherum.

Energieverbrauch ist für Notebooks - vor allem die neuen Thin-and-Light - schon von Bedeutung. Dass der zusätzliche Ram-Channel Diesize kostet ist natürlich ein Tradeoff. Wenn es aber die Leistung eines Quadcore-Kabini steigern kann, dann halte ich es für sinnvoll, wenn man dann zudem unvergleichlich teurere Richlands substituieren kann. Ich kann es allerdings nicht einschätzen, was ein solcher Dualchannel-Ram wirklich bringen würde, doch denke ich, dass es die Leistung einer APU ziemlich beeinflussen kann.

Zuletzt frage ich mich, ob AMD diesmal womöglich doch zwei "echte" Kabini-Varianten bringen könnte: eine Quadcore-APU (ohne Southbridge) mit Dual-Ram und eine kleine Dualcore-Variante (SoC mit integrierter Southbridge) mit auch nur einem Ram-Channel, die zudem von Anfang an auf Lowpower getrimmt ist (für Tablet). Dieser Gedanke kam mir auch als ich die Message auf fudzille las, wo es nun heißt, dass Kabini ein "Yangtze FCH chipset" brauchen würde. Das könnte dann auch gleichzeitig erklären, weshalb die Tablet-Version von Kabini (mir fällt gerade dessen Code-Name nicht ein...) noch etwas länger für die Fertigstellung braucht. Gleichzeitig sehe ich das als einen Hinweis dafür, dass die Quadcore-Kabinis doch vom Pjnout mit Richland kompatibel werden könnte, denn die brauchen auch eine extra Southbridge. Somit wäre es Verschwendung, diese in Kabini zu bauen. Zudem würde das Design von Kabini erst mal simpler ohne Southbridge. Spart man die weg, könnte AMD damit auch das Kabini-Design früher fertig bekommen.
 
Energieverbrauch ist für Notebooks - vor allem die neuen Thin-and-Light - schon von Bedeutung. Dass der zusätzliche Ram-Channel Diesize kostet ist natürlich ein Tradeoff. Wenn es aber die Leistung eines Quadcore-Kabini steigern kann, dann halte ich es für sinnvoll, wenn man dann zudem unvergleichlich teurere Richlands substituieren kann. Ich kann es allerdings nicht einschätzen, was ein solcher Dualchannel-Ram wirklich bringen würde, doch denke ich, dass es die Leistung einer APU ziemlich beeinflussen kann.
Entweder Leistung oder eben Thin&Light. Die Ultrabook Klassen sind weit weg von der Leistung die einen Dual Channel zwingend nötig machen würde.
 
Nebenbei ist der Stromverbrauch bei LV-Modulen etc. auch nicht so überragend.
Dualchannel ist auch nicht umsonst, denn es müssen die Leitungen dennoch unter Strom gesetzt werden, doppelt soviele untergebracht, auf dem Board geroutet usw. Also auch eine Kostenfrage.
Mal eine andere Frage, bei Grafikkarten kann man ja mittlerweile auch den Speicher runtertakten, wie schauts denn da bei Hauptspeicher aus? - man könnte j an die P-States auch verminderte Speichertaktungen koppeln oder das DDR-Verfahren im Stromsparmodus aufbrechen und nur nich an einer Taktflanke Daten übertragen statt an zweien. *noahnung*
Hier gäbe es ja unter Umständen auch Potenzial für verbesserungen und gerade hier könnte das "Stromproblem" bei DDR2133 dann nicht mehr so wild sein, wenn der nur im Vollast-Betrieb überhaupt so schnell liefe und ansonsten auf die Hälfte gedrosselt würde o.ä.
Effektiv ist es wiedermal nur ein Tradeoff zwischen Aufwand und Nutzen.
Wenn DDR im Schnitt 15% mehr Performance bringt, dafür aber Kosten & Stromverbrauch um 30% erhöht oder sowas, ist es unterm Strich ein Verlust. Dann doch lieber einen großen, zwischne CPU und GPU-Teil gesharten Cache on-Die.... wir werden sehen.
 
Mal eine andere Frage, bei Grafikkarten kann man ja mittlerweile auch den Speicher runtertakten, wie schauts denn da bei Hauptspeicher aus? - man könnte j an die P-States auch verminderte Speichertaktungen koppeln oder das DDR-Verfahren im Stromsparmodus aufbrechen und nur nich an einer Taktflanke Daten übertragen statt an zweien. *noahnung*
Hier gäbe es ja unter Umständen auch Potenzial für verbesserungen und gerade hier könnte das "Stromproblem" bei DDR2133 dann nicht mehr so wild sein, wenn der nur im Vollast-Betrieb überhaupt so schnell liefe und ansonsten auf die Hälfte gedrosselt würde o.ä.

Möglich ist das ganze auf jeden Fall. Ist halt nur mehr Aufwand im Memorycontroller. Ich habe hier ein Tegra2 Dev-Board auf dem mit normalem DDR2 Speicher gearbeitet wird und bei dem kann ich im laufenden Betrieb problemlos die Taktrate des Speichers anpassen. Laut Doku kann das der Tegra3 genauso mit DDR3 Speicher.

Die einzige Schwierigkeit ist, dass der Memorycontroller verschiedene Timings (und dazu gehören weit mehr als die gebräuchlichen Latencytimings) unterstützen muss. Beim Tegra wird dazu vor dem Taktwechsel das neue Timingset in Schattenregister des MC geladen und dann bei Anpassung der Taktfrequenz übernommen.
 
@Lynxeye
Das konnten die Centrinos damals schon indirekt über "Dynamic FSB Frequency Switching" im laufenden Betrieb.
 
128 SPs im singlechannel sind also amazingly fast *lol* Was folgern wir daraus? Nicht ernst zu nehmen der Typ.
 
128 SPs sind also amazingly fast *lol* Was folgern wir daraus? Nicht ernst zu nehmen der Typ.
Vergess nicht die Relation zum Verbrauch und zu bisherigen Tablets. Wenn der Type ein Dev-Board hat, entwickelt er wahrscheinlich irgendwas mit low power. Dass Kabini mit ARM/Atom-Winzlösungen den Boden wischen würde und Entwickler, die bisher nur Mali&Co-Grafik gewöhnt waren, das als "amazing" bezeichnen würde, würde mich nicht wundern.
 
Ich bin ja mal gespannt, aber vier Kerne brauch ich im LP-Bereich nicht *noahnung*
 
Hab ich nicht gesagt, ich formuliere mal um:

Ich hoffe das Design ist auch mit zwei Kernen konkurrenzfähig. Brazos war mir persönlich zu schwach und wenn die Mehrleistung pro Kern nur unerheblich steigt fände ich das schade.

besser? ;)
 
Das Beste am Markt kann man so nicht sagen. AMDs Neo II war auch was feines. Klar Grafik klar schwächer, aber mit DualChannel und mehr CPU-Leistung mit nur etwas höherem Verbrauch im idle.
 
schwächere grafik ist untertrieben, der neo hat keine gpu integriert.
wenn man den chipsatz mit gpu dazu rechnet ist der verbrauch mehr als nur "etwas" höher, besonders im idle.
 
Brazos war mir persönlich zu schwach und wenn die Mehrleistung pro Kern nur unerheblich steigt fände ich das schade.

besser? ;)

  • Brazos IPC ~K8
  • max 1,65Ghz

Bekannt zu Kabini ist bisher:
  • IPC +15% ~K10
  • +10% mehr Takt
  • SSE4.x, AVX,...
  • AES


Aus den 1,65Ghz * 1,1 würden rund ~ 1,8Ghz werden.

Die Performance auf etwa K10 mit 1,8Ghz (FPU darunter, alle SSE4.x, AVX, AES deutlich darüber) in kombiniert mit GNC 128 Shadern unter 25W!

Single Channel spielt kaum eine Rolle, da ein 3Ghz K10 bei DC von DDRII 1066Mhz Ram nicht (<2%) profitiert hat.

Da er DDRIII 1600 (oder noch mehr?) unterstützt aber nur mit 1,8 Ghz taktet hat er faktisch Bandbreite im Überfluss. Es bleibt definitiv auch noch genügend für die Grafikkarte übrig. Das hin und her kopieren entfällt ebenfalls.
 
also der Quad Takt soll(t)e bis 2,2 GHz gehen (25W) - Brazos Dual kann bei 18W max auf 1,9GHz takten ...

RAM: DDR3-1866 (1,5V) oder max DDR3-1600 (1,35V / 1,25V)

die GPU-Performance (DC) soll an der Untergrenze vom Llano liegen

AMD hat im Dezember weitere DevBoards verteilt - müss ma die Leaks abwarten.

Start laut Gerüchteküche Ende April bis Anfang Mai nach Demonstration(en) bei der CES
 
Wenn die Daten stimmen ist Trinity im Mobilbereich komplett überflüssig.
Das würde die Zurückhaltung der Hersteller erklären.
 
Zurück
Oben Unten