Bulldozer - AMD Fam 15h - allgemeiner Infothread

zu (*) - http://www.heise.de/newsticker/Atom-CPU-Nachfrage-ueberrollt-Intel--/meldung/107277
Der Intel 'Atom' läuft extrem gut und überfordert bis Q3'08 die Kapazität bei Intel.
Allerdings sind erst H2'2008 die beiden anderen 45nm Fabs voll in Betrieb.
Jo schon krass, v.a. wenn man bedenkt, dass Intel da 2500 CPUs pro 300mm wafer bekommt. Könnte mir wirklich gut vorstellen, dass die ULV Ausbeute etwas schlecht ist, aber egal.

Ansonsten noch zum Alpha EV8: Das schöne daran war ja, dass 2fach SMT bei den vielen Exec Units soviel brachte wie ein echter 2ter Kern. Das ist schon optimal. Im Extremfall hat man super single thread Performance durch die 8fache SSkalarität, und wenn das nichts brachte, dann könnte man die Units mit SMT auslasten ... da sieht man mal, dass da jemand gedacht hatte ^^ SMT bei P4 und jetzt auch bei Nehalem bringt zwar auch was, aber niemals soviel. Das hätte quasi den ähnlichen Effekt wie das "reversed Hyperthreading", das immer mal durch die Schlagzeilen geistert.


@wadenbeisser:
Was meist Du mit Rechenwerk und Kerne ? Execution units ? Die sind integraler Bestandteil eines "Kerns" ... also von daher weiß ich jetzt nicht, was Du wo hinverteilen willst.

ciao

Alex
 
Mit Rechenwerk meinte ich die Kerne (den Prozessor)....egal ob Virtuell (SMT) oder nicht.
Somit wären unausgelastete Rechenwerke bei einem Programm welches Rechenleistung fordert theoretisch fast unmöglich.....das ist ja auch das Hauptproblem heutiger Multicore Prozessoren.
Das Programm muss speziell darauf ausgelegt sein aber mit meiner Spinnerei würde das OS die lastverteilung übernehmen und die programme bekommen von der Anzahl der kerne des Prozessors nix mit. Auch wäre eine feste Aufteilung der gesammten Rechenleistung für verschiedene Programme denkbar.....ganz optimistisch gesehen könnte man dann sogar noch eine oder mehrere GPUs mit einbinden.
 
Jo schon krass, v.a. wenn man bedenkt, dass Intel da 2500 CPUs pro 300mm wafer bekommt. Könnte mir wirklich gut vorstellen, dass die ULV Ausbeute etwas schlecht ist, aber egal.
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3272&p=4

Intel hat erst ab Q3'2008 genügend Fertigungskapazität für 45nm. In Q2'2008 sind nur 15-18% un 45nm möglich.
Die Atom-Reihe ist niedrig angesetzt, aber die Erlöse sind bei den größeren Designs höher.
Nachdem Apple jetzt durchgängig den 6M-Penryn einsetzt (und keine 3M-Penryn wie viele andere) ist die Lage in Q2'2008 schon angespannt.

Ansonsten noch zum Alpha EV8: Das schöne daran war ja, dass 2fach SMT bei den vielen Exec Units soviel brachte wie ein echter 2ter Kern. Das ist schon optimal. Im Extremfall hat man super single thread Performance durch die 8fache SSkalarität, und wenn das nichts brachte, dann könnte man die Units mit SMT auslasten ... da sieht man mal, dass da jemand gedacht hatte ^^ SMT bei P4 und jetzt auch bei Nehalem bringt zwar auch was, aber niemals soviel. Das hätte quasi den ähnlichen Effekt wie das "reversed Hyperthreading", das immer mal durch die Schlagzeilen geistert.
Genau daher wäre so ein Design für typ. Single-/ Dual-Core Geräte mit zeitweise mehr parallelen Threads eine sinnvolle Sache.
Hohe IPC bei Single-Thread bedeutet im Mobilbereich durchaus dann kürzere Phasen mit max. TDP (bei voll hoch geschalteter Peripherie wie Links/ DRAM-Kontroller), was insgesamt Strom sparen hilft.
Und die Geräte fühlen sich 'schneller an'.

Für Server etc. aber ein nur teilweise erfolgversprechendes Design, aber AMD will ja verstärkt im Mainstream punkten.

Der Erfolg des Intel Atom und früherer low power Designs wie Centrino sind eine gute Referenz für die Wünsche der Käufer. Angesichts des Überhanges an Rechenpower für viele Anwender kann naives Multicore mit rel. hoher TDP keine sinnvolle Produktplanung sein.
 
Mit Rechenwerk meinte ich die Kerne (den Prozessor)....egal ob Virtuell (SMT) oder nicht.
Ok, dann noch die Frage was Du mit "Kernen" meinst, doch nicht wieder Rechenwerke (Kerne?).
Wenn ich das richtig verstehe, dann meinst Du "einfach" nur revered Hyperthreading mittels Software.

Die Betriebsysteme weisen heute schon den Threads die einzelnen CPU-Kerne zu, wenn Du jetzt willst, dass 1 Programm/Thread, gleichzeitg auf mehreren Kernen läuft, dann bräuchte es sowas wie "reversed Hyperthreading". In Software hat sowas aber wohl keinen Zweck, da es zu langsam wäre.

Wenn sich das OS um die einzelnen µOps eines Programms kümmern müßte, wäre das viel zu komplex, meiner Meinung nach.

@rkinet:
Danke für den anandterch Link, dass Intels 45nm Kapazitäten begrenzt sind ist klar, aber gleich soviel ^^ Ich dachte, da wäre inzwischen schon die 2. Fab angelaufen.
Der Erfolg des Intel Atom und früherer low power Designs wie Centrino sind eine gute Referenz für die Wünsche der Käufer. Angesichts des Überhanges an Rechenpower für viele Anwender kann natives Multicore mit rel. hoher TDP keine sinnvolle Produktplanung sein.
Du vergißt bei der TDP, dass man den 2. Kern quasi für umsonst bekommt. So ein Teil wäre natürlich kein Stromsparwunder, aber wenn dann im 2-4 thread Betrieb der 1Kerner so schnell wie ein echter 2Kerner wäre, dann spart das massig Energie/Strom etc. ^^

Sagen wir mal so ein Kern würde, sagen wir mal die 1,5fache Leistung eines "normalen" Single-cores verbraten, dann wäre das immer noch besser als die 2fache Leistung eines echten dual cores. Eigentlich ein Patentrezept für *die* desktop CPU. Ich hoffe AMD übernimmt da irgendwas, und wenns nur 6fach Superskalar mit 2fach SMT ist, reicht ja auch schon ^^
Dann noch die 32 8192bit breiten FPU Register des EV8-Tarantula für die K11 SSE Abteilung dazu, dann kann Intel mit dem "putzigen" 256bit AVX einpacken ^^

Aber darüber haben wir schon vor 5 Jahren fabuliert ...

Offiziell hat AMD ja auch noch den Bobcat auf der Liste, also da sollte AMD dann mal keine Rücksicht auf den Stromsparmarkt nehmen müssen.

ciao

Alex

P.S: Netter Tippfehler:
 
Die das zu realisieren wäre kann ich auch nicht sagen, da mir hierfür entsprechende Kenntnisse fehlen. Es wäre allerdings ein Weg aus der bisherigen starren Konstruktion. Wenn man den gerüchten zu zeiten der K8L Spekulation glauben mag, dann hatte offenbar auch AMD schonmal darüber nachgedacht und in diese Richtung geforscht. Nannte sich das hier nicht anti-HTT?
dieses von dir benannte "revered Hyperthreading" wäre natürlich auch in einer Hardware/Software Kombination denkbar, da der von mir verfolgte Grundgedanke lediglich darin besteht das die Programme herzlich wenig davon mitbekommen wieviele Kerne der Prozessor nun wirklich besitzt und somit derzeitige diskussionen um Multicore Prozessoren vom Tisch wären. Das Einbinden von grafikkarten zur Berechnung könnte man vielleicht ähnlich handhaben wie das Ansprechen der SSE Einheiten derzeitiger Prozessoren.

Das nötige Entwicklungspotential für eine solche Plattform sehe ich durch den Aufkauf von ATI durchaus als gegeben aber wie es dabei Softwareseitig ausschaut....?

Wie gesagt...vielleicht alles ein wenig zu offtopic meinerseits aber es spiegelt meine Gedankengänge zu derzeitigen Problemen bei der multicore Diskussion und einer effektiven Nutzung der Grakas ausserhalb des 3D Marktes (wie z.B. bei Folding@Home) wieder. :)
 
Die das zu realisieren wäre kann ich auch nicht sagen, da mir hierfür entsprechende Kenntnisse fehlen. Es wäre allerdings ein Weg aus der bisherigen starren Konstruktion. Wenn man den gerüchten zu zeiten der K8L Spekulation glauben mag, dann hatte offenbar auch AMD schonmal darüber nachgedacht und in diese Richtung geforscht. Nannte sich das hier nicht anti-HTT?
dieses von dir benannte "revered Hyperthreading" wäre natürlich auch in einer Hardware/Software Kombination denkbar, da der von mir verfolgte Grundgedanke lediglich darin besteht das die Programme herzlich wenig davon mitbekommen wieviele Kerne der Prozessor nun wirklich besitzt und somit derzeitige diskussionen um Multicore Prozessoren vom Tisch wären. Das Einbinden von grafikkarten zur Berechnung könnte man vielleicht ähnlich handhaben wie das Ansprechen der SSE Einheiten derzeitiger Prozessoren.

Das nötige Entwicklungspotential für eine solche Plattform sehe ich durch den Aufkauf von ATI durchaus als gegeben aber wie es dabei Softwareseitig ausschaut....?

Wie gesagt...vielleicht alles ein wenig zu offtopic meinerseits aber es spiegelt meine Gedankengänge zu derzeitigen Problemen bei der multicore Diskussion und einer effektiven Nutzung der Grakas ausserhalb des 3D Marktes (wie z.B. bei Folding@Home) wieder. :)
Jo "anti-HTT" ist nur ein andrer Name für reversed Hyperthreading, das meint das Gleiche ^^

Der von Dir angesprochene Punkt der integrierten Grafikkarte ist schon interessant, da ist die Frage, ob die Programmierung desselben irgendwie/irgendwann als "SSEx" in den x86 Befehlssatz aufgenommen wird, oder nicht. Wäre dann aber schon ne dicke Erweiterung.

Ansonsten hat Deine Idee wohl etwas von der Transmeta Idee. Da lief ja auch Codemorphing Software auf einer 128bit CPU. Die Software hat die x86 Befehle dabei in interne Datenhäppchen für die properitäre CPU übersetzt. Je nachdem was diese CPU halt zur Verfügung stellte, wurden da die Daten verteilt. Dürfte nicht so schwierig sein, da die Daten dann auf einen Grafikkern zu verteilen, wenn er integriert werden würde. Transmeta hat sich leider aber nicht durchgesetzt, Problem war vielleicht auch, dass die Software ~20MB vom RAM brauchte, was für kleine embedded Geräte zuviel war, für notebooks/desktops war der Chip dafür zu langsam und die ULV Intel Chips verbrauchten dann auch nicht mehr Strom.

Offtopic ist hier nichts, vielleicht baut AMD ja Codemorphing in den K11 ein, nachdem nichts bekannt ist, darf man über alles spekulieren ;-)

ciao

Alex
 
Zuletzt bearbeitet:
Ich bin mir jetzt nicht sicher welcher Prozessor das war aber bei einem kommenden Modell war ja im Blockaufbau auch ein PCIe Controller mit eigearbeitet...vielleicht ein Indiz für eine entsprechende Forschung zur Einbindung der Grafikkarte in die Berechnungen der CPU?
 
Ich bin mir jetzt nicht sicher welcher Prozessor das war aber bei einem kommenden Modell war ja im Blockaufbau auch ein PCIe Controller mit eigearbeitet...vielleicht ein Indiz für eine entsprechende Forschung zur Einbindung der Grafikkarte in die Berechnungen der CPU?
Hmmmm integrierter PCIe ... das wird der SocketG hoffentlich bringen, und darüber hab ich auch schon öfters spekuliert, aber ein Blockschaltbild hab ich damit noch nicht gesehen.

Wobei, ich glaub beim Fusion wars mal mit drauf. Ansonsten hat das im Moment nur Sun.

Es ist dir Frage, wie das integriert werden soll. In der ersten Generation wird das wohl eher ein MCM werden, d.h. man müßte ein Ati Grafik DIE irgendwie mit nem AMD CPU Die verbinden. Also entweder nen Ati Chip mit Hypertransport, oder ne AMD CPU mit PCIe. Letzteres ist wohl sinnvoller, weswegen ich das auch immer gerne propagiere :)

Frage ist dann aber, wie der Ati Chip an den Hauptspeicherzugriff kommt .. naja abwarten :)

ciao

Alex
 
Ich bin mir jetzt nicht sicher welcher Prozessor das war aber bei einem kommenden Modell war ja im Blockaufbau auch ein PCIe Controller mit eigearbeitet...vielleicht ein Indiz für eine entsprechende Forschung zur Einbindung der Grafikkarte in die Berechnungen der CPU?
Intel integriert indirekt ja auch direkt PCIe im Havendale - http://sunnytalkstech.blogspot.com/2007/11/complete-nehalem-details-leaked.html

Wobei die PCIe Schnittstelle locker auch über eine Bridge laufen könnte, besonders wenn HTr verwendet würde.

Bei der GPU wird heute bei ATI 'Ultra Threated' verwendet, bei x86-64 aber separate Cores mit 3-fach superskalar Design. Ok, bei der Grafik wird zwar auch spekulativ gearbeitet, aber nur verworfen, wenn eigentlich verdeckte Bildbereiche betroffen wären.
Das Verteilen von vielen Threads incl.spekualtiven erinnert nun wiederum an den Alpha EV8.
Aber SSE und Stream Processing Units könnte ggf. fusionieren, was hocheffekte SSE-Performance ODER DirectX-Operationen bedeuten würde. Oft kämen die sich nicht in die Quere, wie beim encoding oder Signalverarbeitung / Spracherkennung.

122_m.png



Aber bisher war bei AMD nichts in dieser Richtung erkennbar.
'Swift' wird lediglich eine (Dual ?! ) K10-Variante mit DirectX10 Grafik auf dem 45nm DIE.
Intels Havendale eben die Nehalem-Basisversion mit 2*2 Cores.

Dazu kommt jetzt per Intel 'Atom' eine deutlich schwächere Ergänzung, die aber bei der TDP glänzen kann.
Das ist auf längere Sicht aber Unsin, denn Strombedarf durch unnütze Units ist ein Akzeptanzproblem. Etwas hilft abschalten/ Tiefschlaf der nicht benötigten Komponenten, aber ein wirklich integriertes Design wäre besser für die Zukunft.
 
wadenbeisser schrieb:
dieses von dir benannte "revered Hyperthreading" wäre natürlich auch in einer Hardware/Software Kombination denkbar, da der von mir verfolgte Grundgedanke lediglich darin besteht das die Programme herzlich wenig davon mitbekommen wieviele Kerne der Prozessor nun wirklich besitzt und somit derzeitige diskussionen um Multicore Prozessoren vom Tisch wären. Das Einbinden von grafikkarten zur Berechnung könnte man vielleicht ähnlich handhaben wie das Ansprechen der SSE Einheiten derzeitiger Prozessoren.
Anti-HTT würde allerdings teilweise bestimmt auch zu Leistungseinbußen führen.

Ein Beispiel aus der Spielewelt:
Du läufst mit Deinem Ego in einem Shooter durch die Gegend und schießt wild in der Gegend rum.

Ein Zweikerner (oder mehr) könnte folgende Aufgaben zeitgleich berechnen, da mehr Threads verarbeitet werden:
Sound (sofern Onboard-Codec), Physik, danach Wind und Gittermodelle.

Dein Zweikerner, der aber nur über einen Thread verfügt, berechnet dann alles nacheinander.

Ich kann mir vorstellen, dass Letzteres langsamer wäre als die erste Rechnung.
 
Zuletzt bearbeitet:
Hast du dabei auch bedacht das im zweiten Szenario die einzelnen Kerne auch nur die halbe Leistung haben und eine solche festlegung sehr hinderlich ist, wenn einer der Kerne nicht ausgelastet werden kann und somit dessen restliche Rechenleistung brach liegt? Genau dieses Problem haben derzeit die Quadcores mehr als deutlich.

Nicht umsonst sprach ich allgemein von multicore Prozessoren und nicht umsonst sprach ich ebenfalls von der Möglichkeit einer erneuten Aufteilung der Rechenleistung.
Auch wäre eine feste Aufteilung der gesammten Rechenleistung für verschiedene Programme denkbar

@Opteron
Ich denke es war das Schaubild des Fusion Projetzs, welches ich im Hinterkopf hatte.
Das mit dem Zugriff des Grafikchips auf den Hauptspeicher sehe ich im übrigen als garkein Problem an, da ja bereits heutige Chips es bereits beherrschen (Auslagen von Texturen, shared memory Lösungen usw.) und die interne Berechnung innerhalb des sehr viel schnelleren Grafikspeichers der Grafikkarte ablaufen könnte. Bestrebungen die Grafikchips als Rechenkarten zu vermarkten gab es meiner meinung nach sogar schon zu Zeiten der x1800/x1900 und wird eingeschränkt sogar schon bei Folding@Home genutzt.

@rkinet
Wie gesagt...die GPU würde dann in der Form eines neuen Befehlssatzes angesprochen werden. Würde man 2 Technologien bestehend aus dem Fusion Projekt und der Hybrid Crossfire Geschichte mit der Berechnung in der Grafikkarte kombinieren können, dann wäre der Befehlssatz auf der einen Seite ein fester Bestandteil der CPU und wäre per schnellerer Grafikkarte auch noch rechenleistungstechnisch aufrüstbar.
das es mit derzeitigen Grafikkarte nicht allso warscheinlich wäre dürfte klar sei aber entsprechende Anpassungen der Shaderarchitektur wären bei kommenden Modellen durchaus denkbar.
.
EDIT :
.

Bestrebungen zur Einbindung der GPU in die Rechenleistung bestehen offenbar bereits heute:http://www.computerbase.de/news/har.../april/neuer_300-tflop-supercomputer_96_gpus/
 
@rkinet
Wie gesagt...die GPU würde dann in der Form eines neuen Befehlssatzes angesprochen werden. Würde man 2 Technologien bestehend aus dem Fusion Projekt und der Hybrid Crossfire Geschichte mit der Berechnung in der Grafikkarte kombinieren können, dann wäre der Befehlssatz auf der einen Seite ein fester Bestandteil der CPU und wäre per schnellerer Grafikkarte auch noch rechenleistungstechnisch aufrüstbar.
das es mit derzeitigen Grafikkarte nicht allso warscheinlich wäre dürfte klar sei aber entsprechende Anpassungen der Shaderarchitektur wären bei kommenden Modellen durchaus denkbar.
Beide Welten (CPU und GPU) müssen fusionieren gerade wenn die Fertigung auf dem gleichen DIE erfolgt.
Wobei ich bei der SSE noch den Bedarf an SMT sehe, da typ. Grafikaufgaben massiv parallel arbeiten aber bei ehere bescheidenen Taktraten.
Die SSE könnte z.B. 1-4 fach (variabel) mit SMT arbeiten und dann z.B. bei 600 MHz IDLE z.B. 64 Shader für DirectX nutzen, bei 1,8 GHz aber 192 und bei 2,4 GHz 256 virtuelle Shaderfunktionalitäten.
Ebenso sind bei einer GPU im Minimum 8 MB local frame buffer nötig, was bei 12 MB als eDRAM also entweder genügend für GPU und CPU ergäbe.
Der local frame buffer wäre auch energiesparender nutzbar als der permanete Zugriff auf das extrene DRAM heutiger onborad-Designs oder gesondereter Grafikkarten.

Es gibt also einiges an Möglichkeiten eine 'Überflieger Mobil CPU <> GPU" und auch eine Mainstream-Desktop CPU zu entwickeln.
Wenn bei ca. 2-4 Cores und perfomanter Floatingpoint die Entwicklung verharrt (allenfalls die Zahl der Floating Point Units sich erhöht) und nur geringere TDP bzw. steigende Taktraten von Bedeutung sind, dann bildet sich schon ein Basisdesign heraus.
 
Das wars dann erstmal wieder mit den Bulldozer news:
(...) The two biggest things are they aren't up to snuff core for core, and Bulldozer is looking wounded if not dead. (...)

The most distressing part is Bulldozer. Much was made of it not being on the roadmaps last December, but that was a tempest in a tea kettle. The real problems have come out since then, and the only way to say it is that the architecture is a huge flop.

No, this isn't to say that it won't be fast or meet every spec that it was meant to, simply that it can't be done on a 45nm process. This means that it will be on the 32nm node pushing it out to late late 2010 best case.
Q: http://www.theinquirer.net/gb/inquirer/news/2008/05/07/amd-roadmap-restores-bit

Bis da wieder was durchsickert wirds wohl 2009 ...

ciao

Alex
 
und langsam auch mit amd
 
Sao Paulo = BD?
 
Wie kommt man darauf, dass es K10 sein müssen? Gibts dazu genaueres? Bisher kann es doch beides sein. Auf der Roadmap gibts nur Northbridge-Features.
 
Wie kommt man darauf, dass es K10 sein müssen? Gibts dazu genaueres? Bisher kann es doch beides sein. Auf der Roadmap gibts nur Northbridge-Features.
Wenn das Bulldozer wäre, dann würde das gaaaaaaanz groß mit roter Schrift auf grellgelben Grund stehen ;-)
Du hast recht, 100%ig ausschließen kann mans nicht, aber 99,999999% ;-)

ciao

Alex
 
Nö, nicht zwingend.
 
Nö, nicht zwingend.
Ja klar, träumen kann man ja immer .. von reversed HT, Taktraten jenseits von 3 Ghz, Kernen ohne Ende, SSE5 mit 1024bit Registern oder eben einen 12 Kern Bulldozer 2010 ... das zeichnet den hardcore AMD Fan aus ;-)

ciao

Alex
 
Ja klar, träumen kann man ja immer .. von reversed HT, Taktraten jenseits von 3 Ghz, Kernen ohne Ende, SSE5 mit 1024bit Registern oder eben einen 12 Kern Bulldozer 2010 ... das zeichnet den hardcore AMD Fan aus
also 12* 2,2 GHz = 26,4 GHz ... 3 GHz war gestern ;D

Hier liegt die reale Zukunft von AMD:
- http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1207000861
- http://www.golem.de/0805/59564.html

Da sollten doch 32 Cores bei <10 Watt umgerechnet machbar sein ?

Jetzt noch per Transmeta-Idee 'reversed HT' einführen und SuperPI liegt unter 5s bei 10 Watt TDP.
Da könnte Intel nur noch die weiße Flagge hießen ...
 
Zuletzt bearbeitet:
Ja klar, träumen kann man ja immer .. von reversed HT, Taktraten jenseits von 3 Ghz, Kernen ohne Ende, SSE5 mit 1024bit Registern oder eben einen 12 Kern Bulldozer 2010 ... das zeichnet den hardcore AMD Fan aus ;-)

ciao

Alex
Was heißt träumen, ich glaub eher jeder träumt von seinem eigenen Krempel. Und mit "Hardcorefan" hat das mal beileibe nix zu tun.
Nur ist es halt möglich und soo unwahrscheinlich ist es nun auch wieder nicht. AMD gibt nicht umsonst keine CPU-Kerntypen an, sondern zählt nur Features auf, die diese CPUs sowieso haben werden. Ich denke, eine solche Entscheidung, dürfte selbst bei AMD noch nicht feststehen - es kommt halt wohl eher darauf an, wie man mit dem BD voran kommt. Nur sollte man sich von sowas verabschieden, dass der BD ein "Wunderding" ist. AMD hat in den schwierigsten Zeiten das Blaue vom Himmel versprochen um zu überleben und wahnwitzige Fahrpläne vorgegeben. Es hat geklappt, die Analysten habens gefressen.
Nur stellt sich eben bei einem solchen Unternehmen die Frage: Ist er wirtschaftlich überhaupt sinnvoll? Wenn dieser wieder gecancelt wird, bleibts halt bei dem K7 Nachfolger K10. Es ist nunmal eine Tatsache, das viel schlechter geredet wurde beim K10 als es tatsächlich ist. Es gibt eine Userbewegung im Umbruch, die die Stärken des K10 erkannt hat und diese auch nach Außen tragen. Das Hardwareluxx-Forum ist ein gutes Beispiel dafür.
Wenn BD wirklich nicht so pralle ist, kommt er halt nicht, dann bleibts halt bei Altbewährtem, ist bei Intel ja ebenfalls nicht anders. Nur läufts jetzt halt wie immer: Montreal kommt nicht, BD kommt nicht oder später und schon wird wieder Untergangsstimmung verbreitet. Immer heißt es, es kann nicht schlimmer werden, die sind bald pleite, wenn die beim K10 bleiben, sind sie verloren... jaja, ne is klar. Das hat man schon zu K5 Zeiten prognostiziert.
Dabei ist die 6-Kern-Variante wirtschaftlich gesehen ein klasse Schachzug. Er ist recht einfach zu implementieren, das KnowHow ist ja da und problemlos auch für die Fertigung realisierbar. Wahrscheinlich ist man damit kostentechnisch viel besser dran, als mit einem möglichen Montreal, welcher ja eh nur für den Serverbereich bestimmt war. Im Nachhinein ist der Montreal ein derart ehrgeiziges Projekt gewesen, dass einem Zweifel kommen, ob der überhaupt tatsächlich in Planung war. Man kümmert sich nun halt um bessere Fertigung, mehr Takt, Optimierungen usw. Es sollte viel zu schnell vorwärts gehen, wäre man den Weg gegangen, wäre es sicherlich aus gewesen. Bei einem solch riskanten vorgehen - neue CPU-Kerne, neue Infrastrukturen usw. kann man sich ganz schnell so verschätzen, das alles zu spät ist. Ich sehe die neue Roadmap eher als "Gesundungskurs", weil AMD genau das macht, was sie immer erfolgreich gemacht haben: Bewährte Techniken weiterverwenden. Der K10 ist taufrisch und das Design ist immernoch potent.
 
Zuletzt bearbeitet:
AMD hat in den schwierigsten Zeiten das Blaue vom Himmel versprochen um zu überleben und wahnwitzige Fahrpläne vorgegeben. Es hat geklappt, die Analysten habens gefressen.
...
Dabei ist die 6-Kern-Variante wirtschaftlich gesehen ein klasse Schachzug. Er ist recht einfach zu implementieren, das KnowHow ist ja da und problemlos auch für die Fertigung realisierbar.
Der 12-fach Core in 45nm ist aber auch halbseiden.
Das wären umgerechnet 3* 45 Watt als Quad in 45nm was bei AMD und Intel schon grenzwertig wird.
Lt. http://www.tomshardware.com/de/QX9300-Quad-Core-Extreme-Intel,news-240702.html
packt Intel als Superselektion Penryn die 4* 2,53 GHz bei 45 Watt.
Intel stellt aber viel mehr Penryn her als AMD je per Hexacore.
Ebenso wäre ein 65 Watt Hexacore nut <<2,5 GHz vorstellbar, also eher 2,2 bis 2,3 GHz bestenfalls.

Ich sehe die neue Roadmap eher als "Gesundungskurs", weil AMD genau das macht, was sie immer erfolgreich gemacht haben: Bewährte Techniken weiterverwenden. Der K10 ist taufrisch und das Design ist immernoch potent.
Der K10 ist das einzig verfügbare für AMD.

Was aber fehlt ist ein nativer Triple-Core mit kompakten L3 (also eDRAM).
AMD wird es vs. Nehalem sehr schwer haben, aber der Penryn wird noch lange direkter Konkurrent im Mainstream sein.
Die hohen IDLE-TDPs der Barcelona-Cores dürften sich bei 45nm reduzieren, aber wird bleiben immer noch oberhalb der K8 / eher 11-13 Watt.
Dies wird sich beim Propus (Quad ohne L3) nicht bessern, aber ein nativer Triple-Core läge wieder deutlich unter 10 Watt. Das ergäbe dann ein rundes Produkt, was 2009/10 noch umsatzträchtig wäre.

Hier sind also Schwächen vorhanden - weder der Barcelona kann Ende 2008 bis Mitte 2009 überzeugen (daher wohl noch den 3,1 GHz K8 G2), noch ist der Propus ohne L3 ein beachtenswertes Produkt. AMD hat es also geschafft den K10 in der miesest möglichen Kombination im wichtigen Mainstream einzuplanen.
Und hier treffen die Designs auf den 3M-Penryn und den 6M-Penryn, wobei sogar der 3M-Penryn in vielen Bereichen davon zieht.
 
Zurück
Oben Unten