Infos über K8L

Das letzte mal habe ich ihn auch für seine kühnen Behauptungen belächelt. Aber er hatte absolut recht behalten und so möchte ich ihm diesesmal glauben...

gruß

cumec

Ich hab nicht gesagt, das ich ihm nicht glaube! :)
 
Das würde ich anders formulieren. Zeit zum Reagieren hat keine der Firmen, da die Entwicklung ja schon Jahre braucht. Die Verbesserungen standen schon lange auf der TODO-Liste. Man braucht ja auch nicht lange überlegen. Und schon vor 2-3 Jahren konnte man im K8 Optimization Manual von späteren FPUs lesen, die SSEn schneller verarbeiten können sollen.
Zustimmung

Zudem ist der K8L ja angeblich nur der 'Rest' des Projektes K9.

AMD leistet sich aber im Unterschied zu Intel wenige parallel laufende Core-Entwicklungen. Während sich dies beim Vergleich Netburst/ P-M zum K8 als erfolgreich heraus stellte, geht Intel nun nur kurzfristig = Conroe/ Merom die ähnliche Strategie.
In der Hinterhand sind aber verschiedene Designs je nach Anwendungsfall, was übrigens Fred Weber auch einmal so für AMD formulierte. Davon ist aber nichts mehr bei AMD zu hören.

Dual-Core oder Quad wird sich in wenigen Jahren durchsetzen, aber 4 echte Cores und dazu noch 8* SSE für eine Office-CPU ? Auch ein Vista-Nachfolger dürfte solche Designs nicht ausreizen, dafür aber die Fertigung mit viel mehr Transitoren belasten.

Gerade die Idee von 'Fusion' = GPU-on-CPU-DIE bedeutet Einsparungen für die CPU vorsehen. Intel könnte hier eine Variante des Penryn mit deutlich weniger L2-Cache, dafür aber HT = Pseudo-Quad zzgl. GPU basteln.
AMD quält sich beim jetzigen Design mehr, da bliebe nur ein Dual-K8L + GPU als Kompromiss übrig.
 
Intel könnte hier eine Variante des Penryn mit deutlich weniger L2-Cache, dafür aber HT = Pseudo-Quad zzgl. GPU basteln.
Soweit ich weiß wird der Penryn aber noch keinen integrierten Speichercontroller haben, obwohl es schon anders lautende Gerüchte gab. Solange der Speichercontroller bei der Intel Plattform aber noch in der Northbridge sitzt, sollte sich auch die Grafikprozessoreinheit wegen der besseren Speicheranbindung mit niedrigen Latenzzeiten dort befinden, wie es zur Zeit auch bei der GMA (X)3000 Familie der Fall ist. Nur bei der AMD Plattform sollte man über integrierte Grafikprozessoren nachdenken, denn dort müssten die Grafiklösungen in der Northbridge erst den Umweg über den Hauptprozessor nehmen, was die Latenzzeiten unnötig in die Höhe treibt. So performant das Konzept des integrierten Speichercontrollers eben sein mag, so unflexibel ist es im Gegenzug.
 
Soweit ich weiß wird der Penryn aber noch keinen integrierten Speichercontroller haben, obwohl es schon anders lautende Gerüchte gab. Solange der Speichercontroller bei der Intel Plattform aber noch in der Northbridge sitzt, sollte sich auch die Grafikprozessoreinheit wegen der besseren Speicheranbindung mit niedrigen Latenzzeiten dort befinden, wie es zur Zeit auch bei der GMA (X)3000 Familie der Fall ist.
Bei Intel könnte ja (fast) die ganze Northbridge auf einen CPU-GPU Kombi umziehen.
Intern könnte Intel sogar den FSB weiter verwenden, da er seit dem Conroe recht performant geworden ist.

Von Vorteil ist meiner meinung jenes Konzept aber nur, wenn die Hardware der GPU shared von logischen Units verwendet wird.
Hoher Takt der Hardware (Intel ja ja ultraschnelle Rechenwerke im Bestand), aber diese shared verteilt auf Units die anteilig dann wie 500-60 MHz Rechenwerke erscheinen.
Letztlich wird die geplante HighEnd diskrete Grafiklösung von Intel zeigen, wie designed wird.
Einfach nur schnelle CPU und langsame GPU auf einem DIE vereinigen oder die GPU auf 2 GHz zu takten erscheint nicht sehr sinnvoll. Das gilt abergenauso für AMD.
 
In der Hinterhand sind aber verschiedene Designs je nach Anwendungsfall, was übrigens Fred Weber auch einmal so für AMD formulierte. Davon ist aber nichts mehr bei AMD zu hören.

Wer hat AMD denn auch Ende 2005 verlassen?
 
So ein blödsinn....es ist wohl mehr als unwarscheinlich das sowas wie eine Highend GPU in den Prozessor integriert werden wird.....zumal dafür nichtmal die Speicherbandbreite vorhanden ist oder willst du den Grafikspeicher auch noch mit auf das Silizium bannen?
Das Ganze wird wohl eher für den Office/Mobile Sektor gedacht sein, in dem man ohnehin keine schnelle Graka zum arbeiten brauch......somit ist auch das gleichzeitige hochtakten der GPU eher irelevant.
 
antaresnd2.jpg
 
Sprich Dual-Core K8L.
 
Zitat von rkinet
In der Hinterhand sind aber verschiedene Designs je nach Anwendungsfall, was übrigens Fred Weber auch einmal so für AMD formulierte. Davon ist aber nichts mehr bei AMD zu hören.

Wer hat AMD denn auch Ende 2005 verlassen?
Vielleicht hat Fred Weber AMD verlassen, weil sich niemand mehr für die 'kleinen Desktop' interessiert hat ?

Ob Sempron, ob Budget-K8L, alles nur Abfallprodukte der großen Opteron Träume.
Was sich jetzt vielleicht bei Fusion als Problem zeigen könnte.

Ein Dual-Core mit HT und GPU integriert ist 2008/9 eine gute Lösung für Office und als Notebook-CPU. Reine Dual-Core wird dann nur noch für Budget reichen.

So ein blödsinn....es ist wohl mehr als unwarscheinlich das sowas wie eine Highend GPU in den Prozessor integriert werden wird.....zumal dafür nichtmal die Speicherbandbreite vorhanden ist oder willst du den Grafikspeicher auch noch mit auf das Silizium bannen?
Das Ganze wird wohl eher für den Office/Mobile Sektor gedacht sein, in dem man ohnehin keine schnelle Graka zum arbeiten brauch......somit ist auch das gleichzeitige hochtakten der GPU eher irelevant.
Ein Dual-Core oder ein Dual-Core mit HT wird 2008/9 ff. Massenware sein.
Dafür benötigt jener aber nicht die Bandbreite von DDR-3, eine int. DirectX10 aber schon.

Nachdem Vista ja auf DirectX 10 aufbaut wird dies bis 2008/9 auch Standard im Office-PC sein.

Echte Quad-Core sind in der Herstellung aufwendiger und vor allem fehlerträchtiger durch die vielen Transistoren. Das wird also die Domäne der höherpreisigen
 
Zuletzt bearbeitet:
...
Ein Dual-Core mit HT und GPU integriert ist 2008/9 eine gute Lösung für Office und als Notebook-CPU. Reine Dual-Core wird dann nur noch für Budget reichen.
...
HT hat der Athlon schon länger. nennt sich nämlich HyperTransport und ist für die Anbindung an die SB, an andere CPUs für MP u.v.a. zuständig.

Du meinst bestimmt HTT (Hyper-Threading Technology)?
 
@w0mbat:

antaresnd2.jpg :)

Sternnamen fallen doch immer wieder schnell auf.

@MR2
:
Stimmt, ganz schön schnell, wie er da rumliegt ;)
 
HT hat der Athlon schon länger. nennt sich nämlich HyperTransport und ist für die Anbindung an die SB, an andere CPUs für MP u.v.a. zuständig.

Du meinst bestimmt HTT (Hyper-Threading Technology)?
HT ist die etablierte Abkürzung für Hyper-Threading - http://de.wikipedia.org/wiki/Hyper-Threading

Nachdem auch IBM / PowerPC bzw. TriCore und Cell damit arbeitet wirklich ein heißes Eisen für die Zukunft. Windows, Treiber u.ä laufen mit immer mehr Threads, die als einzelne überhaupt nicht mehr die ganze Core-Hardware ausnutzen können.
Beim K8L dürfte nur selten die SSE von einem Thread benutzt bzw. voll ausgelastet werden. Ebenso dürfte der Hochgeschwindigkeits-L2 noch voll aus genutzt werden durch nur einen gleichzeitig laufenden Hardware-Thread.
Beim C2D kommt noch das 4-fach superskalar dazu, was auch lt. Intel nur teilweise genutzt wird. Parallel zu jener 'ruhenden' Hardware warten aber Threads auf jene, was nur die Gesamtperformance ausbremst.

HT und Dual-Core ist sicherlich nicht die letzte Weisheit für den CPU-Bau.
Vielleicht haben wir in 10-20 Jahren je Hardware-Core 16 o. 64 logische CPUs zugeordnet, die Bild- und Spracherkennung ermöglichen.
Aber 4 Cores bzw. später 16 Cores sind schon im Visier der Spieleprogrammierer bzw. Grafiktreiber / nvidia.

Hätten wir tatsächlich von Intel eine 10 GHz Netburst CPU 'bekommen', dann wäre sicherlich HT gleichzeitig aufgebohrt worden. Vielleicht dann 4 o. 8 logische Cores, damit nicht die GHz durch Taskwechsel vom OS sinnlos verbraten werden.
 
Dafür benötigt jener aber nicht die Bandbreite von DDR-3, eine int. DirectX10 aber schon.
Trotzdem reicht die Bandbreite nicht aus. Ein schnelles PC3-10600 DDR3-RAM Modul würde im Idealfall auf 10,67 GB/s kommen. Handelsüblicher GDDR3 RAM, welcher noch DDR2-RAM Technik basiert, ist jedoch nicht nicht mit schmalen 64 Bit angebunden, sondern in der Regel mit 128 Bit bei Mainstream Grafikkarten und mit 256 Bit bei HighEnd Grafikkarten. Eine vergleichsweise langsame Radeon X1300 Pro hat so beispielsweise bereits einen Speicherbandbreite von 12,50 GB/s bei einer Anbindung des Videospeichers mit 128 Bit bei 400 MHz Speichertakt. Sie würde also bereits den gesamten Speicherbus des Athlon 64 bei einem SingelChannel Szenario auslasten. Insofern kann man wahrlich keine HighEnd Grafik von einer integrierten Grafiklösung erwarten, sondern nur Leistung auf dem Niveau einer üblichen OnBoard Grafik. Eine GeForce 8800 GTs kann sogar mit einer Speicherbandbreite von 84,36 GB/s aufwarten. Bis solche Werte auch mit dem gängigen Hauptspeicher möglich sind, wird wohl noch einige Zeit vergehen. Vor allem dürften zwei Punkte zum begrenzenden Faktor werden. Nämlich zum einen die Entfernung der Speicherbänke vom Hauptprozessor und zum zweiten der mechanische Übergang vom Speichermodul auf das Mainboard. Diese beiden Umstände dürften das Signalrauschen bei hohen Taktraten alsbald zu sehr in die Höhe treiben, sodass man entweder wieder die Ansprechspannung erhöhen wird oder den Speicherbus verbreitern wird, was jedoch die Kosten in die Höhe treiben dürfte.
 
Trotzdem reicht die Bandbreite nicht aus. Ein schnelles PC3-10600 DDR3-RAM Modul würde im Idealfall auf 10,67 GB/s kommen. Handelsüblicher GDDR3 RAM, welcher noch DDR2-RAM Technik basiert, ist jedoch nicht nicht mit schmalen 64 Bit angebunden, sondern in der Regel mit 128 Bit bei Mainstream Grafikkarten und mit 256 Bit bei HighEnd Grafikkarten.
Eine vergleichsweise langsame Radeon X1300 Pro hat so beispielsweise bereits einen Speicherbandbreite von 12,50 GB/s bei einer Anbindung des Videospeichers mit 128 Bit bei 400 MHz Speichertakt.
Sie würde also bereits den gesamten Speicherbus des Athlon 64 bei einem SingelChannel Szenario auslasten.
Insofern kann man wahrlich keine HighEnd Grafik von einer integrierten Grafiklösung erwarten, sondern nur Leistung auf dem Niveau einer üblichen OnBoard Grafik.
Nun, selbst der AM2 Sempron ist schon für 128 Bit vorgesehen.
Dazu die Sache mit ZRAM, was ideal als L3 bzw. local memory für die Grafik wäre.
Das externe RAM würde weniger gefordert werden, wobei solche Designs ja auch in Konsolen umgesetzt sind.
8-16 MB ZRAM dürfte etwa wie 2-4 MB SRAM an Platz benötigen, in 45nm also nur einen Teil des DIEs belegen. ZRAM allein als L3 für eine Office-CPU zu nutzen macht wiederum keinen Sinn.

Mit 45nm bzw. 32nm (könnte noch in 193i gehen) sind schon Strukturbreiten in Sicht und per ca. 100mm2 verfügbare DIE-Flächen vorhanden, die aufgefüllt werden 'müssen'.
AMD u. Intel haben nichts davon, wenn 45nm Fabs nicht mit voller Kapazität arbeiten können, weil die CPU-Core klein sind und die Kundschaft (IT-Fachleute) nicht einen echten Quad der Sekretärin gönnen wollen. Dann sackt die Wirtschaftlichkeit sofort zusammen.
Ebenso ist DDR3 recht überdimensioniert für Office.

Kalkulatorisch kann AMD und Intel vielleicht $10-$20 mehr je Core erlösen.
Bei AMD / ca. 10 Mill. / Quartal betroffenen Cores wären dies 100-200 Miil. echte 'Dollar-Kohle' für die Firma. Bei Intel fallen dabei aber Erlöse auch den Northbridges mit GPU weg, bei AMD/ATI Fremdkosten für die Herstellung der Northbridge mit GPU.
 
Auf welches Silizium willst du das alles denn bannen, bzw. wieviel soll der Prozessor dann kosten? Hast du auch bedacht das auch der Rest des Rechners etwas von der Bandbreite abhaben will?
Für eine integration einer highend Grafik reicht das trotzdem nicht, denn schau dir malleine mal an die gross GPUs der marke G80 oder R600 bereits heute schon sind und dann willst du einen Grafikpuffer von vielleicht 4MB integrieren, der kaum für den Framepuffer reicht? ???
damit hättest du dann wohl die CPU mit der lausigstenYyield seit Jahren geschaffen, welche zudem im Spieleinsatz mehr als lahm ist und einen haufen Strom sinnlos verbrät.

Der einzige sinnvolle Einsatz einer integrierten GPU ist schlicht und ergreifend der Leistungsbereich der Office Grakas und der Integrierten Lösungen. Der wahnsinnig grosse Markt der Computerspieler (vorsicht Ironie ;) ) wird sich wohl oder übel auch weiterhin mit einer externen Grafikkarte begnügen müssen.
 
Auf welches Silizium willst du das alles denn bannen, bzw. wieviel soll der Prozessor dann kosten? Hast du auch bedacht das auch der Rest des Rechners etwas von der Bandbreite abhaben will?

....und dann willst du einen Grafikpuffer von vielleicht 4MB integrieren, der kaum für den Framepuffer reicht ?

Der einzige sinnvolle Einsatz einer integrierten GPU ist schlicht und ergreifend der Leistungsbereich der Office Grakas und der Integrierten Lösungen.

Der wahnsinnig grosse Markt der Computerspieler (vorsicht Ironie ;) ) wird sich wohl oder übel auch weiterhin mit einer externen Grafikkarte begnügen müssen.
Gamer werden natürlich weiterhin externe Grafikkarten nutzen - sowas entwickelt ja jezt selbst Intel.

XBox360 und ATI-Grafiklösung:
http://www.hartware.de/report_409_2.html
http://www.heise.de/newsticker/meldung/59517

Jene Grafiklösung ist leicht abzuspecken und für die höheren Bildschirmauflösungen zu optimieren. Der Framepuffer dürfte auf 16 MB kommen, wenn nicht Reduktionen möglich sind. Das könnte ZRAM ggf. packen, also etwa so groß wie 3 MB SRAM in 45nm bzw.1,5 MB Cache in 65nm sein.

Die XBox360 Grafik wird 2008/9 ff.etwa als Standard bei Office und Einsteiger-PCs zu betrachten sein, wobei höhere Bildschirmauflösungen zu berücksichtigen sind.

Die aktuelle Hardware benötigt gewaltig Platz - http://www.hardware-mag.de/hardware.php?id=435&page=2
bzw. http://www.hardware-mag.de/hardware.php?id=435&page=3

Gelingt es die Streamprozessoren schneller und effektiver zu gestalten kann man kräftig Hardware einsparen und es wird interessant.

Die Einsteiger-Grafik wird 2008/9 sicherlich wie die heutige fast HighEnd aussehen.
Und alles für wenige Dutzend Dollar mehr an Erlös/ Kosten.
 
Warten wir es einfach mal ab. :)
Ich tippe allerdings auch das es eine verschmelzung von CPU und GPU werden könnte, da bereits die X1000 Reihe gezeigt hat zu was das GPU design in der lage ist.
Dazu dann noch ein kleiner Framepuffer um die Auflösungen abzudecken und der Arbeitsspeicher dient dann der Auslagerung.

schaun wa ma :)
 
Achtung, Bilder sind über 1MB groß. 56K Warning!

 
Achtung, Bilder sind über 1MB groß.
Jeder Foto-DAU bekommt heute wohl schon einen K8L ?

Zumindest für die Dual-Core mit L3 eine realistische Veröffentlichung.
Die 2,8 GHz bei ES klingen nicht schlecht, die 5 GHz wie beim Power6 dürften aber auch im Endausbau nicht erreicht werden.

Aber ein 2,8 GHz K8L mit 2MB-L3 könnte 'Nachfolger' vom X2 6000+ / K8 / 3,0 GHz werden, oder ?
Integer IPC +15% angesetzt würde der dann rechnerisch wie ein K8 mit 3,2 GHz sein.
Dazu noch die rasant gesteigerte SSE-Performance.

Vielleicht mal ein X2 6500+ ? (oder eben was destruktives wie bei Intel ... wieso verliert Intel Kunden, nur wg Netburst oder wg. fehlenden Taktzahlen ?)
 
Zuletzt bearbeitet:
antares ist multithreaded? das wäre ein echtes plus für amd
Kein SMT/Hyperthreading.

Beim Dualcore wäre das auch kaum notwendig. Mit den bisher bekannten Verbesserungen dürfte so eine CPU recht gut ausgelastet sein, so dass man die Recheneinheiten mit einem 2. Thread stopfen muss. Ich denke mal, dass die unabhängigen Memory Controller in den kleinen "K8Ls" auch vorhanden sein werden, was damit auch Situationen, wo die Speicherzugriffe der Cores konkurrieren könnten, reduzieren würde.

Übrigens ist w0mbat's Bild wahrscheinlich ein Fake, wie jemand in einem anderen Forum feststellte (Position des Schriftzuges "2048 kB" ist nicht ok).
 
Kein SMT/Hyperthreading.

Beim Dualcore wäre das auch kaum notwendig. Mit den bisher bekannten Verbesserungen dürfte so eine CPU recht gut ausgelastet sein, so dass man die Recheneinheiten mit einem 2. Thread stopfen muss.
Bzgl. Integer / 3-fach superskalar sicherlich zu bedenken. Intel läßt beim 4-fach superskalar einiges ungenutzt, was wiederum bei HT genutzt werden könnte.
Allerdings ist IBM beim Power6 wieder mit SMT vertreten bzw. 2* physikalisch = 2*2 logische Cores je DIE.

Bei der SSE Nutzung werden aber nur in seltenen Fällen die beiden Units ausgenutzt.
Da könnte SMT/HT Reserven nutzen.

Problematisch erscheint mir ein Verzicht auf SMT / HT wenn Intel sowohl in seinen CPU-Linien die Technik einsetzt (also Dual-Core HT) als auch bei Multimedia-Treiber einen Optimierung auf 4 Cores durchführt. Die kommende HighEnd Grafik von Intel würde dann nur bei 4 Cores mit voller Performance laufen.

Natürlich geht es hier um vielleicht +20% Mehrnutzen durch jene Techniken. Aber mehr bietet der C2D im Vergleich zum K8 auch nicht, was aber AMD trotzdem gewaltig Erlöse kostete.
Viel Geld läßt sich eben nur mit Technik am Limit erzielen und AMD lag in Q4'2006 gut $100 Mill.Gewinn unter dem Erwartungswert. Mal spekuliert, AMD könnte per SMT gut $50 Mill. je Quartal = $200 Mill. / Jahr mehr erlösen, dann werden wenige Prozent Mehrleistung verdammt kostbar. Der Quad allein bringt viellleicht AMD soviel bei deutlich mehr Entwicklungsaufwand.
Sollte AMD 4-fach superskalar auf der längefristigen Roadmap haben wird die Sinnfrage von SMT-Techniken noch aktueller.
Natürlich muss AMD nicht 'Spielereien' von Intel o. IBM nachbauen. Aber wenn dann Preisnachlässe statt kleinem Aufpreis für SMD als Ergebnis herauskommen wird es finanziell unsinnig.
 
[...]
Übrigens ist w0mbat's Bild wahrscheinlich ein Fake, wie jemand in einem anderen Forum feststellte (Position des Schriftzuges "2048 kB" ist nicht ok).

Das bezieht sich nicht auf die Bilder. Die Bilder habe ich nicht selber gemacht, aber die Position der L3-Cache Größe stimmt.
 
Zurück
Oben Unten