News Der x86-Bruder des K12 heißt Zen

Na da bin ich aber gespannt auf die Verhandlungsposition, wenn AMD mal da sitzt und sagt sie brauchen keine x86 Lizenz mehr. Intel soll für x64 Geld auspacken ;)
 
Solange sie im PC Bereich aktiv sind werden sie auch die x86er Kompatibilität benötigen aber Mantle und Co. haben sie schließlich auch noch da und daran scheint Intel lt. älterer News durchaus interessiert zu sein.

PC: Warum sind hier so viele so viele wild aufs Hyperthreading? Ohne softwareseitigen Multicore Support ist auch das recht nutzlos.
 
Zuletzt bearbeitet:
Na da bin ich aber gespannt auf die Verhandlungsposition, wenn AMD mal da sitzt und sagt sie brauchen keine x86 Lizenz mehr.
Intel lässt die Zügel zur Zeit etwas lockerer. Das sieht man unter anderem an der IP-Übereinkunft, die man Mitte des Jahres mit dem chinesischen Hersteller Rockchip getroffen hat, welcher bisher für SoCs auf Basis der ARM-Architektur bekannt war. Intel liefert für eine neue Generation von Rockchip SoCs nun sogar vollständige Schaltpläne für Atom Kerne und ein UMTS Modem. Das geht weit über das hinaus, was man in der Vergangenheit getan hat. Rockchip wird die Atom Kerne nicht verändern dürfen, aber sie erhalten Einblick in das fertige Design. Das war vor einigen Jahren noch undenkbar für Intel.

Insofern sollte es AMD nicht schwer fallen über die x86 Lizenz zu verhandeln, wenn wieder eine Verlängerung anstehen sollte. Soweit ich mich erinnern kann, hat ein US-Gericht Intel in der Vergangenheit (dauerhaft) verpflichtet AMD eine solche Lizenz zu erteilen. Insofern geht es ohnehin nur um eine angemessene Gegenleistung und nicht um das "Ob" der Verlängerung. Einige Patente, die AMD auf dem Gebiet der GPU-Technik hält, könnten womöglich für Intel interessant sein. Andererseits hat Intel bereits mit nVidia nach dem sogenannten "Chipsatzstreit" einen gegenseitigen Patentaustausch beschlossen und so hat Intel noch bis 2017 Zugriff auf das 3D Know-How von nVidia und dadurch verliert dasjenige von AMD an Wert für Intel.
 
Zuletzt bearbeitet:
Ich denke es wird hauptsächlich für Intel um das x64 patent gehen Naja man viel spekulieren man wird ja sehen was bei rauskommt
 
PC: Warum sind hier so viele so viele wild aufs Hyperthreading? Ohne softwareseitigen Multicore Support ist auch das recht nutzlos.
Wenn jetzt 2004 wäre, würde ich zustimmen ;-)
Davon abgesehen wars mit CMT nicht anders ...
Insofern sollte es AMD nicht schwer fallen über die x86 Lizenz zu verhandeln, wenn wieder eine Verlängerung anstehen sollte. Soweit ich mich erinnern kann, hat ein US-Gericht Intel in der Vergangenheit (dauerhaft) verpflichtet AMD eine solche Lizenz zu erteilen. Insofern geht es ohnehin nur um eine angemessene Gegenleistung und nicht um das "Ob" der Verlängerung. Einige Patente, die AMD auf dem Gebiet der GPU-Technik hält, könnten womöglich für Intel interessant sein. Andererseits hat Intel bereits mit nVidia nach dem sogenannten "Chipsatzstreit" einen gegenseitigen Patentaustausch beschlossen und so hat Intel noch bis 2017 Zugriff auf das 3D Know-How von nVidia und dadurch verliert dasjenige von AMD an Wert für Intel.
Glaube jetzt nicht, dass man von dem Rockchipdeal auf allgemeine Gepflogenheiten schließen könnte.
Intel hat den Mobilbereich einfach verschlafen, deswegen schmeißen sie ihre Technik jetzt jedem hinterher. Beim in der News zitierten Interview sprach man auch davon, dass AMD kein Geld hätte, Chips mit 10 oder gar 20-Dollar Schleifchen zu verkaufen ... das kann ich nur so verstehen,als das Intel seine Mobilchips in den Markt "dumpt".

Zu den Patenten:
Wenn ich mich recht erinnere meldete irgendeiner beim letzten Patente-Deal, dass die Ex-ATi-Patente auch schon dabei gewesen wären.

Normalerweise ist das Abkommen wohl recht grob, AMD darf Intels nutzen und Intels AMDs. Da sollte dann also eigentlich auch Hyperthreading/SMT dabei sein, falls man dafür überhaupt Patente braucht.
Schwieriger wird die Frage sein, ob AMD das Know-How dazu hat. Keller ist zwar Profi, aber SMT hat er glaub ich noch nicht gemacht. So trivial ist das aber nicht.

--- Update ---

Wüsste nicht wieso. Das ist ja lediglich ein allgemeines Konzept. Was eben bereits in Bulldozer teilweise umgesetzt wurde. Nur wenn AMD konkret Hyperthreading implementieren wollte, dann müssten sie es lizenzieren. Das wird zum Glück aber nicht passieren.

Wo ist denn der Unterschied zw. Hyperthreading und SMT? Meines Wissens war HTh nur der Begriff der Marketingabteilung, da "Simultaneous Multithreading" zum Verkaufen zu geekig ist.

Edit .. und ja, weils mir gerade wieder einfällt:
Die Bulldozer-FPU läuft ja bereits unter SMT ...

Ergo wirds da kaum Patentprobleme geben.
 
Wo ist denn der Unterschied zw. Hyperthreading und SMT?
Hyperthreading ist eine konkrete Implementierung und rechtlich geschützt. Das wurde auf Basis der seinerzeit von Intel aufgekauften DEC Patente entwickelt. SMT ist wie gesagt erst mal lediglich die Bezeichnung für ein Konzept ohne konkrete Implementierung.
 
Insofern sollte es AMD nicht schwer fallen über die x86 Lizenz zu verhandeln, wenn wieder eine Verlängerung anstehen sollte.
Die steht an. Das von 2009 sollte 5 Jahre laufen.
Soweit ich mich erinnern kann, hat ein US-Gericht Intel in der Vergangenheit (dauerhaft) verpflichtet AMD eine solche Lizenz zu erteilen. Insofern geht es ohnehin nur um eine angemessene Gegenleistung und nicht um das "Ob" der Verlängerung. Einige Patente, die AMD auf dem Gebiet der GPU-Technik hält, könnten womöglich für Intel interessant sein. Andererseits hat Intel bereits mit nVidia nach dem sogenannten "Chipsatzstreit" einen gegenseitigen Patentaustausch beschlossen und so hat Intel noch bis 2017 Zugriff auf das 3D Know-How von nVidia und dadurch verliert dasjenige von AMD an Wert für Intel.

Das interessante daran wäre ob und wieviel und in welche Richtung Geld fliesst, und ob sich Intel wieder freikauft für ev. Verstösse in den letzten 5 Jahre. daran dass der Patentaustausch nicht weitergeführt wird zweifle ich nicht, würde beiden Firmen Schaden, gehe davon aus das Intel ohne AMD Patente keine CPU und GPU bauen kann. wobei AMD wohl zu wenig Geld hat um zu klagen.
 
Wenn jetzt 2004 wäre, würde ich zustimmen ;-)
Davon abgesehen wars mit CMT nicht anders ...
Nun ja, wenn er das x86er Gegenstück zur ARM Version ist würde ich nicht mit allso starken Kernen rechnen sondern eher auf etwas in der Jaguar Region. Ich bin mir auch nicht sicher ob in der Leistungsklasse noch mehr Threads durch mehr virtuelle Kerne wirklich sinnvoll wären.
Aber mal ganz ehrlich.....in wiefern hat sich die Software seint 2004 überhaupt groß weiterentwickelt? Was damals multicore tauglich war ist es heute auch und die die nur einen Kern nutzen konnten sind heute auch nicht sonderlich viel weiter.
Wirkliche Unterschiede sehe ich irgendwie nur im Spiele Sektor.
 
sompe, ich denke der K12 ist ausschließlich für Server gedacht.
Und da sind viele Prozesse an der Tagesordnung. Dafür benötigt man auch viele Kerne.
 
Hyperthreading ist eine konkrete Implementierung und rechtlich geschützt. Das wurde auf Basis der seinerzeit von Intel aufgekauften DEC Patente entwickelt. SMT ist wie gesagt erst mal lediglich die Bezeichnung für ein Konzept ohne konkrete Implementierung.

AUf Deutsch: Hyperthreading ist Intels Markenname für ihre Version von SMT?
 
Hyper-Threading Technology (kurz HTT, üblicherweise nur Hyper-Threading genannt) ist die Implementierung von hardwareseitigem Multithreading in Intel-Prozessoren. Durch mehrere vollständige Registersätze und ein komplexes Steuerwerk werden intern parallel arbeitende Pipeline-Stufen mehreren parallelen Befehls- und Datenströmen zugeteilt. Hyper-Threading ist damit Parallelverarbeitung auf der Ebene des Simultaneous Multithreadings (SMT).
Der Begriff Simultaneous Multithreading (kurz SMT; deutsch etwa simultaner Mehrfadenbetrieb) bezeichnet die Fähigkeit eines Mikroprozessors, mittels getrennter Pipelines und/oder zusätzlicher Registersätze mehrere Threads gleichzeitig auszuführen. Hiermit stellt SMT eine Form des hardwareseitigen Multithreadings dar.

Die derzeit wohl bekannteste Form des SMT ist Intels Hyper-Threading Technologie (HTT) für Pentium 4, Xeon, Atom und Core i7, aber auch Prozessoren anderer Hersteller, z. B. Cell, POWER5 und POWER6 von IBM verfügen über SMT.

Auch interessante Details von IBM:
http://www.ibmsystemsmag.com/mainframe/trends/IBM-Research/smt_mainframe/?page=1
Auch nochmal detailliert verschiedene CPU Techniken und wie die Wechselwirkungen miteinander sind in der Pipeline:
http://www.ibmsystemsmag.com/mainframe/administrator/performance/cpu_pipeline/
 
sompe, ich denke der K12 ist ausschließlich für Server gedacht.
Zu Beginn, vermutlich. Aber man braucht sicherlich auch was für Skybridge nach 2015. Ich könnte mir daher vorstellen, dass später auch Client-Prozessoren auf K12 Basis kommen.


AUf Deutsch: Hyperthreading ist Intels Markenname für ihre Version von SMT?
Ja, so in etwa. Der Punkt war eigentlich, Hyperthreading ist lediglich eine konkrete Implementierung von SMT. Das ist wie mit dem Daumen und Fingern. Alle Hyperthreading Prozessoren sind SMT Prozessoren, aber nicht alle SMT Prozessoren sind Hyperthreading Prozessoren. Also nur wenn AMD ganz konkret Intels Hyperthreading implementieren wollte, inklusive Markenname für Werbezwecke, dann müssten sie es lizenzieren. Jeder, der eine eigene Implementierung von SMT anstrebt, muss da nichts lizenzieren. Und wie gesagt, bei Bulldozer hat man das ja bereits teilweise getan. Genügend Expertise sollte also vorhanden sein, falls man mit K12 ähnliches vorhat.
 
sompe, ich denke der K12 ist ausschließlich für Server gedacht.
Und da sind viele Prozesse an der Tagesordnung. Dafür benötigt man auch viele Kerne.

Ich glaube du hast mich falsch verstanden. Natürlich ist mir klar das der K12 für Server ist allerdings stufe ich ihn aufgrund der ARM Version eher vei der unteren Leistungsklasse ein und vermute deshalb auch das die x86er Kerne in dieser Leistungsklasse. Wievielen Designs in dieser Leistungsklasse besitzen SMT? Da fällt mir spontan nur Intels Atom ein. Und mal ganz ehrlich.....hat das Design an sich nicht ohnehin schon so viele Kerne das sie für diesem Bereich in den meisten Fällen reichen? Die Preisfrage ist natürlich auch ob die Auslastung der Kerne überhaupt gering genug wäre damit für SMT überhaupt genug übrig bleibt.
Für SeaMicro ist dieses Modell natürlich auch höchst interessant und vermutlich wurde die Geschichte auch genau dafür entwickelt.
 
Ich sehe auch nicht unbedingt den Bedarf nach SMT wenn man ausreichend Kerne hat.
Der Overhead wir ja immer größer je mehr Kerne mit Arbeit versorgt werden sollen.
 
Man darf das Einsatzgebiet dieser Dense-Server nicht vergessen. Es geht darum möglichst Stromsparend die maximale Leistung zu erreichen, also Perf./W. Sollte ein SMT Design die Ressourcen besser ausreizen für entsprechend weniger Powerbudget, dann ist das gerade dort ein legitimer Ansatz. Und die Skalierung für SMT ist ja auf Chipebene, also unwichtig ob dann 1000 dieser 4,8 oder 12-Kern-CPUs auf einem Microserver verbaut sind. Man wird den richtigen Sweetpot wählen, den Rest verbindet die Seamicro Fabric. Fertig ist der perfekte Multi-Hosting-Server.
 
Man darf das Einsatzgebiet dieser Dense-Server nicht vergessen. Es geht darum möglichst Stromsparend die maximale Leistung zu erreichen, also Perf./W.
Du hast das wichtigste Argument des Kapitalismus vergessen: /$
Und dann geht es noch bei den Dense-Servern um die Betriebskosten (Energie, Kühlung) und den Platz.
Die laufenden Kosten/Jahr in Verbindung mit den Anschaffungskosten der gesamten Anlage müssen sich rechnen.
Es muß also nicht die CPU unbedingt Perf/W Sieger sein. Im Gesamtsystem muß es sich rechnen.
 
Nun die Betriebskosten sind äquivalent zum Stromverbrauch. Mehr Strom, mehr Kühlung. Die Anschaffungskosten sind bei dieser Betrachtung sekundär, solange Perf/W stimmt. Natürlich gibt es noch mehr Betriebskosten, doch bei Kauf ist die Kenngröße Verbrauch, da alle anderen Kosten sowieso entstehen egal welche CPU drauf ist.
 
Ich sehe auch nicht unbedingt den Bedarf nach SMT wenn man ausreichend Kerne hat.
Der Overhead wir ja immer größer je mehr Kerne mit Arbeit versorgt werden sollen.

Ja, aber da kommt wieder die Sache mit den Lechströmen. Die betrugen ja schon bei BD 23% des gesamten Stromverbrauchs, sogar im idle, nur komplettes power-gaten verringert das.
Deshalb will man die Transistoren so gut nutzen wies geht, und eben deshalb kommt man dann auf die SMT Geschichte.

Erhöht den Stromverbrauch natürlich auch etwas, aber dafür wird auch mehr geleistet und die Leakage bleibt gleich. Ein Core mehr verdoppelte dagegen die Leakage, d.h. das Verhältnis Leistung/Verbrauch sinkt.

Solange man also keine Brute-Force single-thread Leistung braucht, ist SMT erste Wahl. In Zukunft ists auch egal, Oracle (oder wars IBM?) haben beim neustens Chip ne Logik eingebaut, die hohe single-thread Last erkennt und dann SMT kurzfristig deaktiviert. Wie das geht und ob das OS-Support bräuchte .. kA, aber bei Oracle bzw. IBM wärs Dank ihren Haus-Unixen aber ziemlich trivial.
 
@Complicated
OK.
Ich frage mich halt nur, was günstiger ist:
1 dicke CPU oder 2 CPUs mit halber Performance bei halbem Verbrauch?
Die Dicke dürfte teurer sein in der Anschaffung und eine teurere Kühllösung benötigen, dafür weniger Platz benötigen.
Gesamtgesehen bieten beide CPUs dieselbe Perf./Watt.
Das kleine sparsame Kerne für Micro Server besser geeignet sind als die Hochleistungsboliden sehen wir ja aktuell.

Single Core IPC stößt an seine Grenzen, die Chipgröße ist ausgereizt, der Verbrauch eines Chips wird ausgereizt (140W Xeon, 240W FX, 300W GPU), die Fertigung hat zunehmend Schwierigkeiten weiter zu schrumpfen.
Wo läuft das ganze hin? Stellen wir uns demnächst Microserver neben den Schreibtisch, wenn mehr Performance gewollt ist als aktuelle Prozessoren bieten?
 
Ich frage mich halt nur, was günstiger ist:
1 dicke CPU oder 2 CPUs mit halber Performance bei halbem Verbrauch?
Das ist eine Frage der Auslastung und daher der Skalierbarkeit. Kein Rechenzentrum läuft auf 100% Last ohne Leistungsreserven und Wachstumspotential. Eine ganze CPU abzuschalten ist sicherlich besser skalierbar beim Verbrauch. Fragt sich auch welche Granularität die Skalierbarkeit hat. Kleine CPUs aus deinem Beispiel könnten in halb so grossen Schritten abgeschaltet werden. Eine Grosse CPU muss komplett auf 40% Last laufen während 2 kleine einmal abgeschaltet wird und die andere auf 80% läuft für die selbe Leistung. Aber CPUs die doppelt so schnell sind verbrauchen nicht nur doppelt so viel, daher ist das Beispiel auch nicht realistisch. Der Grund für das Interesse an Microservern ist eben, dass 60% weniger Leistung oft mit 80% weniger Strom erreicht werden kann, da eine Dauerlast anliegt und kein "race-to-Idle" wo kurze hohe Performance immer besser ist als länger niedrige Performance. Dieser Vorteil verschwindet bei bestimmten Server Szenarios wie Webservern.
 
Danke, deine Beiträge haben mir geholfen die Situation besser zu verstehen.
Aber CPUs die doppelt so schnell sind verbrauchen nicht nur doppelt so viel, daher ist das Beispiel auch nicht realistisch.
Das liegt wohl daran, dass bisher die CPUs auf maximale Performance ausgerichtet waren. Eine CPU, die in ihrem sweet Spot betrieben wird sollte eigentlich effizienter sein wie die gleiche CPU bei halben Takt. Sieht man ja bei Kaveri der seinen sweet Spot bei ca. 3GHz hat, wodurch der 7600 am effizientesten aus der Serie arbeitet. Ist abhängig von Architektur, Design und Prozesstechnologie.
Das war mein Gedankengang zum CPU Vergleich.
 
Du hast ja nicht unrecht. In vielen Serverszenarien ist Mehrleistung durchaus effizienter oder auch schlicht nötig. Nur dies sind ja nicht die Märkte die Microserver anvisieren. Es sind die anderen Workloads die sich eben dann am besten rechnen, wenn viele User geringe Leistung benötigen, die stark skalieren kann um Nacht- oder Tagspitzen zu kompensieren bei der Userzahl.
 
Zum Thema SMT:
Wie gesagt, was dabei raus kommst steht und fällt damit wie gut die Software den Kern ausnutzen kann, also wieviel Rechenleistung z.B. durch Wartezyklen ungenutz brach liegt. Ist die Software bereits so gut angepasst das kaum was übrig bleibt dann wird auch der zweite Thread kaum was bringen. Ist dann auch noch die Grundgeschwindigkeit des Kerns relativ gering dann stellt sich natürlich auch die Frage ob die Zusatzleistung durch den zweiten Thread sinnvoll nutzbar ist.
Da hat man bei einem Großteil der Gurkensoftware des Desktop Markts deutlich bessere Chancen.
 
Zuletzt bearbeitet:
Zurück
Oben Unten