AMD greift beim Phenom-Nachfolger auf K6 Design-Elemente zurück

Auch von mir ein Danke für einen der definitiv besseren Aprilscherze heute im Web.
:-*

Echt nett gemacht und viel Arbeit reingesteckt.
(auch wenn ichs sofort gemerkt habe wars lustig zu lesen)

CU
Markus
 
Die Integer-Leistung mit dem K10.5 soll ja schon deutlich besser sein - da fand ich es schon komisch.
 
@Speicher Geschwindigkeit & Testprogramme:

Der Durchsatz hängt immer davon ab, mit welchen Befehlen getestet wird. Da gibts 8-16-32 und mittlerweile auch 64-128bit Befehle zum Speicherbereich hin und herkopieren ... dementsprechend unterschiedlich fallen die Ergebnisse aus.

ciao

Alex
 
Und zum Codenamen "Bazooka". Es wird Zeit, dass AMD mal wieder "coole" Codenamen hervorbringt, bei denen schon der Klang alleine Angst macht. Man denke nur an "Sharptooth", "Spitfire" oder die Mutter aller martialischen Codenamen, den "Sledgehammer" *lova* Da war uns "Bazooka" gerade gut genug ;D
Und was ist mit den vom Mageek gemeldeten "Thunderstorm" und "Lightning", klingt doch auch schon recht kraftvoll? *suspect*
Scheint auf den ersten Blick nicht als Scherz gemeint zu sein, da er schon früher davon geschrieben hat:

http://madmikemagee.wordpress.com/2008/03/13/nvidias-back-is-against-the-wall/

Allerdings ist das Datum "Ende 2008" und die Rahmenstory ("Busfahrer") mehr als verdächtig ...
Das ist wohl eher der bekannt abgedrehte Stil von "Mad Mike", ein lahmes "ich darf die Quelle nicht nennen, weil sonst derjenige gefeuert wird und mir nie wieder irgendwer was erzählt" wäre ihm einfach zu langweilig.
Was meist als Northbridge bezeichnet wird ist doch ohnehin nix anderes als eine PCIe bridge mit nem HTlink zur CPU und einer Schnittstelle zur Southbridge Anbindung.
Mich wundert nur warum die beiden Chips nicht endlich wieder miteinander verschmelzen.
Wohl einfach eine Frage der Pins, aus der Southbridge kommen wesentlich mehr Leitungen "raus" als als HT-Link "rein", d.h. wenn man das auch noch alles dem CPU-Sockel aufbürdete, würde das Platinenlayout ziemlich heikel und mit billigen 4 Layern sicher nicht machbar.
 
Auf den ersten Blick habe ich es geglaubt. Ihr habt euch echt viel Mühe gegeben! Sehr schön geworden.*yeah* Die Überlegung an sich ist gar nicht schlecht. Mit einem aufgebohrten, bugbereinigten K5 wäre das ganze vielleicht noch leistungsfähiger.:)

MfG
Macros
 
Die Überlegung an sich ist gar nicht schlecht. Mit einem aufgebohrten, bugbereinigten K5 wäre das ganze vielleicht noch leistungsfähiger.:)
P.S.: Die IPC des K5 war der des K6 noch weit überlegen!!
Über den K5 kann ich ebenfalls nur Gutes berichten. Ich hatte damals einen von der zweiten Serie, also das fehlerbereinigte "Model 1". Es war ein K5 PR133 mit 100 MHz und der war bei praktisch allen Berechnungen, die über die ALU gelaufen sind, mit einem Pentium 166 zumindest gleichauf :o Bei einigen Berechnungen, die für den K5 günstige Codefolgen enthielten, war er sogar doppelt so schnell. Dafür allerdings war die FPU mindestens genauso schlecht wie später die des K6 :( Am Anfang irgendwann 1996, als ich ihn mir geholt hatte, war das noch nicht schlimm, weil es eh noch sehr wenige Anwendungen gab, die auf die FPU angewiesen waren. In der Prä-3D Ära liefen die meisten Berechnungen in Spielen noch per Festkomma-Berechnungen über die ALU oder gleich komplett als Integer, um CPU-Zyklen zu sparen und sonst gab's im Privatbereich nichts zu tun für die FPU. Erst als die ersten "echten" 3D-Spiele mit den 3D-Beschleunigern aufkamen, wurde die FPU immer wichtiger und da hatte der K5 leider genauso wenig zu melden wie der K6. Schade, dass hier der Trend zu einer starken FPU derart verschlafen wurde. Naja, dafür hat ja der K7 dann gleich drei FPU-Pipelines gekriegt ;D
 
Au Backe! Auch wenn ich erst jetzt einen Kommentar schreibe, bin ich doch bereits kurz nach Mitternacht in die "News" reingestolpert... in Gedanken noch immer im MÄRZ!

Während bereits über die K6 Architektur diskutiert wird, scheinen manche übersehen zu haben was für ein Hammer hier eingepackt worden ist: Nach leidgeprüften Monaten der Core 2 Konkurrenz scheint man sich bei AMD darauf besonnen zu haben, dass es sich bei der ZEHN JAHRE ALTEN(!) K6 Technologie wohl um das probate Mittel zurück an die Spitze des x86 Marktes handeln muss. Der auf Hochtouren arbeitenden Marketingabteilung fällt, auch nach Überstunden, nichts besseres ein als die Kennzeichnung "K6 Core" unverändert in die aktuellen Grafiken zu übernehmen. Schlussendlich ist man bei AMD dann aber guter Dinge und hofft die "geballte Integer Power" von bis zu sechzehn K6 Kernen rechtzeitig zur Refreshversion des Nehalem in die Waagschale werfen zu können...

Meine Anerkennung und mein persönlicher Kreativitäts-Award für den Autor dieser genialen Idee :P
 
naja nicht schlecht... aber die meldung auf hartware.net ( HDVD ist zurück, BlueRay zittert) fand ich noch besser ;-)
 
der K6-2 hatte zwar eine rel. schwache FPU, aber dafür 3dnow!
Das hat aber auch nicht viel gerissen. Wurde wenig unterstützt und ich kann mich erinnern das irgendsoein Codierprogramm (Flaskmpeg?) mit 3dnow! deftig langsamer war als mit mmx was mein K6-2 ja auch hatte.

3DMark über 3dNow! laufen zu lassen war auch keine Freude... ;D
 
Das hat aber auch nicht viel gerissen. Wurde wenig unterstützt und ich kann mich erinnern das irgendsoein Codierprogramm (Flaskmpeg?) mit 3dnow! deftig langsamer war als mit mmx was mein K6-2 ja auch hatte.
Wenn ich mich recht erinner, dann war Intel mächtig sauer, da die Killer-Applikation (im wahrsten Sinne ^^) Quake damals mit dem 3DNOW! - Voodoo Patch um die 20% höhere Frameraten lieferte ...

ciao

Alex
 
Wenn ich mich recht erinner, dann war Intel mächtig sauer, da die Killer-Applikation (im wahrsten Sinne ^^) Quake damals mit dem 3DNOW! - Voodoo Patch um die 20% höhere Frameraten lieferte ...

ciao

Alex
Immer eine Frage der Optimierung. Vermutlich besteht immer die Möglichkeit eine Software so zu schreiben das die Lieblings-Extension des Programmierers die besten Ergebnisse erzielt. Bestimmt kann man so coden das MMX SSE3 locker abhängt. *chatt*
 
...ich kann mich erinnern das irgendsoein Codierprogramm (Flaskmpeg?) mit 3dnow! deftig langsamer war als mit mmx was mein K6-2 ja auch hatte.
Das kannst Du nicht vergleichen, da bei MMX-Berechnungen die Genauigkeit fehlt, da es sich um Ganzzahlen handelt, während 3DNow! Fließkomma-Berechnungen durchführte. Eine MMX DCT ist daher immer schneller, als eine 3DNow!- oder SSE-DCT, die wiederum schneller sind als die Originale x87 DCT mit 80-Bit Floatzahlen. :)

Aber das wichtigste wurde gesagt: bis auf die Shugashack-DLLs für Quake 3 Arena und FlashMPEG ist mir kein einigermaßen verbreitetes Spiel oder Programm bekannt, das 3DNow! genutzt hätte :( Wenn die Entwickler sich die Mühe machten, eine SIMD-Einheit manuell per Assembler zu programmieren, dann taten sie es für SSE, weil sie damit eine breitere Kundenschar erreichten, als mit 3DNow!
 
Nicht schlecht. Hatte mich heute früh kurz vor halb fünf darüber gefreut als ich das gelesen hatte.
Die Idee ist nicht schlecht dacht ich mir. Bis hier schon die ersten Komentare und hinweise zum 1.4. auftauchten *g* ansonnsten hätte ich mir das durchaus vorstellen können
 
Ich hab mich heute morgen auch gefreut. Unsere Tageszeitung hat im Lokalteil vermeldet das die Feuerwehr günstig an einen Rosenbauer Panther 8x8 Tanklöschfahrzeug gekommen ist.
1000 PS usw.
Die Dinger werden normalerweise auf Flughäfen eingesetzt. *chatt*
War sogar richtig gut geschrieben und mit Bild. ;D
 
@Nero24
Worauf habt ihr die Berechnung der DIE Fläche begründet? Ich habe dabei irgendwie das gefühl gehabt das der erhöhte Platzbedarf von Crossbar und FPU usw. ausser acht gelassen wurde. Beim Cache hätte man hingegen auf eine andere Speichertechnologie schliessen können. Die 140mm² für die Variante mit 16 Kernen klangen mir im Vergleich zu den 285 mm² (lt. Wiki) des derzeitigen K10 einfach zu utopisch. Mich freut aber zu lesen das ihr euch bei dem Aprilscherz so viel Mühe gegeben habt. :)

PS schickt das mal als Designvorschlag an AMD....mich würde echt interessieren was die dazu sagen.
 
Wohl einfach eine Frage der Pins, aus der Southbridge kommen wesentlich mehr Leitungen "raus" als als HT-Link "rein", d.h. wenn man das auch noch alles dem CPU-Sockel aufbürdete, würde das Platinenlayout ziemlich heikel und mit billigen 4 Layern sicher nicht machbar.
Offenbar hast du mich falsch verstanden...ich meinte damit warum 2 Chips beim Chipsatz auf dem Mainboard Platz verbraten anstatt daraus einen zu machen. Nvidia handhabt das zum Teil schon so bei einigen integrierten Chipsätzen.
.
EDIT :
.

[P3D] Crazy_Chris;3562934 schrieb:
*lol* Ich glaub die kippen vor lachen vom Stuhl wenn sie das lesen.
wer weiss, wer weiss....versuchen kann man es ja ;D
Meiner Meinung nach wäre die Idee für den Mobile Sektor aber durchaus denkbar.
 
Vielen Dank! Mich habt ihr auch erwischt - war aber auch sehr früh, als ich das heute laß .... ;D
 
mann mann mann ....;D;D;D *massa*
 
extrem ulkig und der einzige aprilscherz auf den ich nicht reingefallen bin bisher, weils einfach zu offensichtlich war^^

aber die idee is nice xD
 
Ich hatte mich so gefreut, vor allem über die neuen Spezifikationen der neuen Architektur von AMD, Core 2 vierfach superskalar, wie hammer ist dass denn. Ich binn reingefallen. So ein mis..
 
Zuletzt bearbeitet:
Zurück
Oben Unten