itanium - und die nächsten 36 monate

habe schon lange einen artikel angefangen zum thema skalierung von cpu ;D

werde nur niemals nicht fertig 8-( *lol*
 
Original geschrieben von Bokill

Ein Mysterium ist mir immer noch die verzögerte angekündigte Markteinführung des Xeon-Prescotts mit eingeschlteter AMD64 Funktionalität.

Original geschrieben von Treverer

der grund ist windows64.

MS bringt ein neues os, welches noch besser, schneller, bunter, geiler, lustiger, erregender ist - kurz: das jeder haben will. und es läuft nur auf amd prozzies?

Eine interessante Frage von Bokill und eine (teilweise) Antwort.

Die Frage stellt sich tatsächlich, da ja Intel dafür bekannt ist, dass sie keinen Marketinggag ungenutzt lassen, um ihre "Spitzentechnologie" zu verkaufen. Was läge da näher, als die AMD64 jetzt freizuschalten und für den Presskot die große 64-Bit Werbetrommel zu rühren? Meinetwegen mit einer eigenen 64Bit Wortschöpfung. Man muss dem DAU ja nicht sagen, dass das AMD-Technologie ist.

Fakt ist, AMD hat eine CPU entwickelt, die von vorne herein auf AMD64 ausgelegt und optimiert war. Deshalb ist zu erwarten, dass die CPU-Effizienz im 64Bit Modus mit ausgereiften Treibern und optimierten Anwendungen noch weiter steigt. Aktuelle Far Cry Benches bestätigen dies. 8)
http://www.planet3dnow.de/vbulletin/showthread.php3?s=&threadid=146975

Intel hingegen musste irgendwann reagieren und hat in ein bereits entwickeltes Prozessorlayout, welches eigentlich nie dafür vorgesehen war, die AMD64 implementieren müssen - sozusagen als Kompatibilitätsmodus.

Während die Athlon64 gegenüber den alten Athlon XP selbst im 32Bit Betrieb bei gleichem Takt ein höheres Rating erreichen, ist der Presskot gegenüber dem Northwood bei gleichem Takt fast im Nachteil. Meine Vermutung ist, dass die Effizienz des Presskot mit eingeschaltetem AMD64 noch schlechter ist (s.o.). Aber irgendwann muss er Farbe bekennen. Unter Win32 läuft der Athlon64 im Kompatibilitätsmodus. Spätestens die Einführung von Win64 zwingt den Presskot in den Kompatibilitätsmodus. Dann erst wird er sein wahres Waterloo erleben.
Und eben dies will Intel so lange wie möglich hinauszögern. Sonst hätte man die 64Bit Far Cry Demo auch jetzt schon auf dem Presskot laufen lassen können und dann hätte wohl selbst THG den Presskot in der Luft zerrissen (und die Seite nach 1 Stunde wieder vom Netz genommen).:]

dD
 
Zuletzt bearbeitet:
ja, daß ist die große frage, wie gut der prescott unter 64bit läuft. wieso 40mio transistoren nur für 64bit? kaum vorstellbar. und wie heiß wird er dann? es ist wohl einfach so, daß der prescott noch gar nicht so weit ist und die noch weiter an ihm rumbasteln müssen. ist ja auch die frage, wie sie es implementiert haben. das hyperthreading und 64bit sich nicht gut vertragen erscheint mir immer wahrscheinlicher. nicht, daß es nicht läuft, aber ich habe so eine ahnung, daß beides sich gegenseitig etwas nimmt von der leistungssteigerung (als beispiel: jeder für sich 15%; zusammen aber nur 25% leistungssteigerung; so etwas meine ich). der cache und die bandbreite leiden definitiv mehr als beim hammer. die lange pipeline...hm, ist sie bei 64bit noch problematischer? viele fragen offen, einfach weil die architektur so anders ist.

aber lange warten müssen wir darauf nicht, den die xeons werden ja viel eher frei geschaltet sein.

p.s.: ich habe mir doch mal wieder thg (engl.) angetan: was da geschrieben wird über intels schritt...tztztz...entweder ich kann nicht genug englisch und habe alles falsch verstanden, oder das sind deppen...
 
Jaja, die alpha Jungs ... wenigstens etwas brainpower und nicht nur Heizleistung bei Intel :
Nach Montecito, stellte Fister im Gespräch mit c't dar, soll der vom ehemaligen Alpha-Team entwickelte Tukwilla fertig sein, mit vielen Kernen und einem integrierten Memory-Controller. Die kleine DP-Version geht als Dimona ins Rennen.
Quelle : http://www.heise.de/newsticker/meldung/44801

da wirds dann langsam auch für den Itanium interessant ...

ciao

Alex
 
@Opteron
Zumal dort indirekt von einer anderen Systemverbindung die Rede ist.

...
Nach Montecito, stellte Fister im Gespräch mit c't dar, soll der vom ehemaligen Alpha-Team entwickelte Tukwilla fertig sein, mit vielen Kernen und einem integrierten Memory-Controller. Die kleine DP-Version geht als Dimona ins Rennen.
...
http://www.heise.de/newsticker/meldung/44801

Integrierter Speicherkontroller und frische Systemverbindung... von woher kennen wir dies denn?
(Wobei die Systemverbindung eine Vermutung ist, denn integrierte Memory-Controller sind eine schwerwiegende Designänderung, garantiert inkompatibel zum bisherigem)

Wer weiss, möglicherweise ist in 2 Jahren mit einem Systemverbindungskonzept von intel zu rechnen, die AMD schon mit dem Hammer vormachte ;)

Alles Mäkeln seitens intels über die so "unflexible" Integration eines Speicherkontrollers (was ja auch wahr ist) und auch die doch nicht so bedeutsame Systemverbindung HTr ist deswegenn seit gestern obsolet.

Wer weiss, könnte aus Kostengründen gar möglich sein, dass ein P4 Nachfolger irgendwann den gleichen "Bus" nutzt wie der Itani(c)um( Nachfolger ). Die aktuellen Itani(c)ums laufen ja auch auf Boards die den HP8800 RISC nutzen...

MFG Bokill

Nachtrag: Nachfolger ergänzt! Warum sollte später nicht des gleiche Systemprotokoll genutzt werden? Systemverbindungen wachsen ja auch nicht beliebig auf den Bäumen und brauchen dann nur noch gepflückt werden.
 
Zuletzt bearbeitet:
Dürfte teils zutreffen.

Intel hat aber die Version II des alten RAMBUS-Konzeptes wieder aufleben lassen.
Sehr schnelle CPU (?) zu RAM-Chip Verbindungen.

Sieht aber wieder wie eine Insel-Lösung aus.


Intel scheint aber den Itanium nicht aufgeben zu wollen.
Ein schnelles und breites RAM-Interface können den Nachteil des riesigen Codes wieder kompensieren.

Aber, Intel muß zunächst am Strombedarf seiner Chips durch andere Fertigungskonzepte arbeiten, denn BTX & Co. sind nicht die Zukunft, wohl auch aus Sicht der Käufer.
 
Wenn ich an Tukwila denke komme ich auf Joel Emer und damit auf EV8. Key Features des EV8 Designs waren:
1) Symetrical Multi Threading (4 Fach)
2) integrierter MC (damals Rambus)
3) 4 Links für Glue-Less-Multiprocessing
4) einen seperaten IO Port (=> Southbridge Port)

So nun was zum NextGen Itanium bekannt ist:

- Multicore & SMT
- Codedensity worse that Alpha

Das läßt eigentlich nur einen Schluss zu: Ein Multicore-Itanium benötigt entweder noch viel mehr Cache ODER eine wesentlich breitbandigere Memory Anbindung.

Zweiteres ist wahrscheinlicher:
* auch bei 0.65um würden die benötigten Cache-Strukturen riesig und er Stromverbrauch dementsprechend.
* die aktuelle Systemschnittstelle limitiert nicht nur die Memorybandbreite sondern auch die Node-Interconnect-Bandbreite
* Intel interessiert sich auffällig für eine schnelle Memory-Technik (Siehe Intel Vorschlag für eine neue Memory Schnittstelle die sogar an etablierten Standardisierungsgremien wie JEDEC vorbei geht)

Ich tippe darauf, dass Intel bis Montecito das bekannte Itanium Sockel-Format beibehält (max. werden sie wohl noch den FSB etwas pushen) und danach eine radikal andere Systemarchitktur kommt. Mal sehn wieviel vom EV8 darin enthalten ist ;-)
 
Wenn heute schon 32 Bit beim Itanium emulierbar ist, könnte doch auch x86-64 gehen ?

Böser Gedanke, ich weis, aber Intel hat sich immer vorgenommen und die Tage nochmals bestätigt, daß der Itanium so 2007-2010 auf Preisniveau Xeon runter soll.

Der Mehraufwand für x86-64 statt 'nur' x86 als add on kann ja nicht die Welt bedeuten, oder ?


Bem: Bevor sie solche Sachen umsetzen können, müssen sie entweder ihren Chips den Stromhunger abgewöhnen oder die Käufer fanatisieren.
 
Original geschrieben von rkinet
Der Mehraufwand für x86-64 statt 'nur' x86 als add on kann ja nicht die Welt bedeuten, oder ?
Wegen der schlechten performance hat Intel den Ex-Alpha Jungs ja auch aufgetragen eine Art Software Emulation für x86 zu schreiben, die ja mittlerweile auch zu haben ist. Die Jungs hatten das ja schon vor jahr und Tag mit FX32! für die Alphas gemacht. Ist eng mit dem Codemorphing bei Transmeta verwandt. Da das Software ist, wäre es wohl auch kein Problem(erst recht für die fähigen DEC Ingenieure) es für AMD64 umzuschreiben / anzupassen.

Weitere Infos : http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/42066

ciao

Alex
 
Ok, eine ziemlich brutale Anspielung auf die deutsche Vergangenheit.


Aber bei Gedanke an eine Zukunft 'Intel only' wird mir übel.
Ok, sollen die doch 80-85% Weltmarkt haben.

Aber eine Welt, in der Intel die CPU-Alleinherrschaft mit Itanium/x86-64 Kombichips hat, wäre schrecklich. Wäre auch das erste, totale Weltmonopol einer Firma.

Alles Intel, bis zum Ende der Erde in 5 Milliarden Jahre, Gut Nacht !
 
@rkinet
> Wenn heute schon 32 Bit beim Itanium emulierbar ist, könnte doch auch x86-64 gehen ?

Emulierbar ist fast alles :-)

> Der Mehraufwand für x86-64 statt 'nur' x86 als add on kann ja nicht die Welt bedeuten, oder ?

Naja, das Übel der Wurzel (oder umgekehrt) ist, dass der Itanium auch IA32 ohne Emulation "Versteht", nur ist die Performance recht mager. Ich denke sogar, dass eine gute Software Emulation schneller sein müßte als die im Itanium integrierte Hardwarekrücke für IA32.

Wenn Intel schlau ist, schmeissen sie den Mist mit Tukwila auch gleich völlig über Board.

@Opteron

> Wegen der schlechten performance hat Intel den Ex-Alpha Jungs ja auch aufgetragen eine Art Software Emulation für x86 zu schreiben, die ja mittlerweile auch zu haben ist.

Das ganze schimpft sich "IA-32 Execution Layer"

> [FX32!] Ist eng mit dem Codemorphing bei Transmeta verwandt.

Naja, es gibt schon einige größtere Unterschiede. FX32 geht von x86 (CISC) auf AXP (RISC), das ist rel. einfach. Transmetas CMS setzt CISC auf VLIW um, das ist viel haariger. Um das einigermasen performat hinzubekommen wurde der darunter liegende VLIW Core um Code-Profiling Resourcen erweitert die der Itanium nicht aufweist.

Jedenfals würde Intel vom Transmeta Know-How wesentlich mehr haben.

> Da das Software ist, wäre es wohl auch kein Problem(erst recht für die fähigen DEC Ingenieure) es für AMD64 umzuschreiben / anzupassen.

??? Warum sollte man x86 auf x86-64 emulieren wollen wenn das die Hardware sowieso schon kann.
 
so, ich möchte erneut ein paar gedanken kund tun :-)

folgende ereignisse zusammengeführt:

- intel führt x86 vorerst nur für xeon-server ein
- intel führt xeons mit 2mb l3-cache ein
- intel erhöht itanium auf 24mb l3cache und dual-core
- amd senkt die preise sehr selektiv (nämlich vor allem opterons für quad-systeme; athlon64 dagegen gar nicht)

ergeben folgende schlussfolgerungen:

intel gibt den itanium nicht auf. vielmehr nehmen sie den abwehrkampf gegen amd im server geschäft auf. desktop lassen sie "einfach so laufen" in dem wissen, das beide hier ziemlich vergleichbare leistung bei gleichem preis bieten. oder gar nicht mithalten können und daher es über ddr2 und pci-express versuchen. doch zurück zum server-geschäft...

ein itanium2 mit 24mb l3-cache und dualcore ist natürlich heftig. gleiches gilt für die xeons, die mittlerweile wieder mithalten können. interessant ist der konter von amd: sie forcieren bzw. fördern die entwicklung von vierfach-systemen in dem wissen, daß der opteron bei einer höheren anzahl von prozessoren besser skaliert als der xeon. was sollen sie auch sonst noch machen - außer takterhöhung und hypertransport-verbesserung?

dual-core scheint dringend notwendig. doch dual-core ist selbst mit 90nm schwer vorstellbar, da dann das die wieder zu groß wird. oder dual-core mit nur einem geteilten l2 cache von 1mb? ist das vorstellbar bei 90nm? überhaupt: sollte amd bei den heftigen kontern von intel nicht für den serverbereich den opteron weiterentwicklen, die ihn klarer (in der leistung und der architektur) trennt von athlon64 und athlon fx? warten bis die neue fab in dresden steht (=65nm und 300mm wafer) können sie nicht, da bis dahin intel sicher seine temperatur-probleme in den griff hat - wie auch immer sie es schaffen :-) und die konkurrenz aus dem nicht x86-64 lager ist ja auch dabei, neue maßstäbe zu setzen (g5 dual core). es scheint fast, als hätte das wettrennen aus dem desktop bereich jetzt tatsächlich die 64bit welt erreicht...

also,wie wäre es erneut - eben wie zu beginn von amd geplant - mit einem speziellen core für server? noch in 90nm und auf 200mm wafer. ohne 3dnow und ohne fpu (wird komplett ersetzt durch sse), ohne 16bit unterstützung (unterstützt MS sowieso nicht) - dafür dual-core, nur 1mb l2-cache aber dafür ddr2 zwecks hoher bandbreite zum füttern beider kerne. ist natürlich hochpreisig, macht aber in dem segment nichts. ich weiß, auf der roadmap war dazu nichts. aber da gab es auch noch nicht solche xeons und itaniums und g5 wie jetzt...
 
Zuletzt bearbeitet:
Ich glaube nicht, dass SSE im Servermarkt die Verbreitung hat, dass man die FPU ersetzen könnte :) 16 Bit Modus ist fest in der x86 Struktur vorgesehen, kann man aus Kompatibilitätsgründen nicht weglassen.

Eine Möglichkeit wäre: Mehr Cache
2. Möglichkeit: Dualcore wie schong gesagt (Müsste bei gleichem Cache auf ~180mm² passen).

Die Frage ist nur, hat AMD die Kapazität dies zusätzlich zu entwickeln und haben sie dann auch die Fertigungskapazität ?

MfG
 
Original geschrieben von Treverer
amd senkt die preise sehr selektiv (nämlich vor allem opterons für quad-systeme; athlon64 dagegen gar nicht

dual-core scheint dringend notwendig. doch dual-core ist selbst mit 90nm schwer vorstellbar, da dann das die wieder zu groß wird. oder dual-core mit nur einem geteilten l2 cache von 1mb? ist das vorstellbar bei 90nm? überhaupt: sollte amd bei den heftigen kontern von intel nicht für den serverbereich den opteron weiterentwicklen, die ihn klarer (in der leistung und der architektur) trennt von athlon64 und athlon fx? warten bis die neue fab in dresden steht (=65nm und 300mm wafer) können sie nicht, da bis dahin intel sicher seine temperatur-probleme in den griff hat - wie auch immer sie es schaffen :-)

also,wie wäre es erneut - eben wie zu beginn von amd geplant - mit einem speziellen core für server? noch in 90nm und auf 200mm wafer. ohne 3dnow und ohne fpu (wird komplett ersetzt durch sse), ohne 16bit unterstützung (unterstützt MS sowieso nicht) - dafür dual-core, nur 1mb l2-cache aber dafür ddr2 zwecks hoher bandbreite zum füttern beider kerne.


AMD hat zwar eine grobe Vorstellung von den CPU-Preisen der nächsten 2 Jahre (bis die Fab36 liefert), aber Intel, die Weltnachfrage und sonstiges werden dann tatsächlich die Werte vorgeben.
AMD dokumentiert für 130 nm bis 2600 MHz, 90 nm dürfte zwischen 3-4 gHz (dann strained SOI) packen. Das gilt es über zwei Jahre intelligent zu verteilen, was angesichts des Thermo-Schocks bei Intel (Quantenphysik ignoriert !) einfach sein sollte. Anschließend steht mit der Fab36 eh eine 65nm/später 45 nm strained SOI Anlage als IBM-Clone in DD.
AMD wird also permanent die A64 Leistung erhöhen können, bei gleicher Leistung.

Die Größe der Opteron-DIE sind total zweitrangig, es muß nur die Ausbeute einigermaßen stimmen. Die Multimedia-Eigenschaften zu entfernen wäre inkompatibel und würde viel mehr Kosten verursachen, als die Paar Cent mehr je DIE.

Für Server wird aber der CPU-Takt immer mehr an Bedeutung verlieren. Wer wirklich Power benötigt, arbeitet eh mit mehreren CPUs. Die HTr-Links zur Vernetzung der CPUs sind heute schon sehr gut und könnten per HTr 2.0 noch um 75% bzw. 150% (dann 32 bittig) aufgebohrt werden. Oder AMD koppelt mehrere Kerne schon auf dem DIE aneinander.

'Joker' bei 90 nm scheint auch SSOI (strained silicon on isolator) zu sein. AMD konnte von 130 nm SOI auf 90 SOI um 2/3 schrumpfen, IBM hingegen durch Wechsel auf SSOI auf 50%. Sollte dies an SSOI liegen, würde der heutige 190 mm2 DIE auf 95 mm2 schrumpfen, bzw. zwei gekoppelte DIEs wieder bei ca. 190 mm2 liegen.

Ob AMD sich um einen größeren L2-Cache oder L3-Cache kümmern sollte, ist fraglich. DDR-II reg. ist lt. Medienberichten bereits in Arbeit und 2* DDR-II 533 ergäben gut 8 GB/s je CPU zzgl. die Daten per HTr (2.0?). Müßte reichen.
 
@Treverer

> dual-core scheint dringend notwendig.

Na bisher schlägt sich der Opteron recht wacker und AMD kann mit sicherheit noch einige Speed-Grades nachlegen (bisher gibts ja nur die 130nm CPUs!).

> doch dual-core ist selbst mit 90nm schwer vorstellbar, da dann das die wieder zu groß wird. oder dual-core mit nur einem geteilten l2 cache von 1mb? ist das vorstellbar bei 90nm?

Klar ist das Vorstellbar. Sogar sehr gut! Schau mal wie schnell jetzt ein Athlon 64 mit 512k Cache und Single-Channel Memory ist. Jetzt stell dir vor AMD packt auf ein Die genau zwei Cores mit 1MB unified L2. Durch das DC Memory dürfte genug Bandbreite für beide Cores vorhanden sein -- sieht man übrigens auch daran, dass Dual-Boards wo nur eine CPU am Speicher hängt sich auch gut halten. So nun zu den Größen: Schau dir das K8 Die Foto an und du wirst erkennen, dass der Core selber nur ca. 30% der Fläche belegt. Anders gesagt in 130nm wäre ein Dual-Core K8 auf etwa 250mm^2 realisierbar. In 90nm dürfte das 130-170mm^2 entspechen. Du siehst Fertigungstechnisch kein Problem.

Nochwas. Ist euch aufgefallen, dass bisher noch keiner ein Opteron Board für 8 CPUs vorgestellt hat? Womöglich warten die genau auf so eine Dual-Core CPU um ihre 4-Fach Boards in 8-Fach-Systemen zu verkaufen!

> überhaupt: sollte amd bei den heftigen kontern von intel nicht für den serverbereich den opteron weiterentwicklen, die ihn klarer (in der leistung und der architektur) trennt von athlon64 und athlon fx?

Zwei Punkte:
1) Rein vom Entwicklungsaufwand ist es Unsinn zwei CPU Linien mit unterschiedlicher Architektur zu schaffen.
2) Bei Intel sind die Verhältnisse genauso. Die Xeons sind ja auch nicht schneller als die P4!
 
http://www.amd.com/de-de/Corporate/VirtualPressRoom/0,,51_104_543~82628,00.html

MDs Senior Vice President und Chief Financial Officer Robert J. Rivet wird am Montag, den 1. März 2004 um 18:00 Uhr auf der Morgan Stanley Semiconductor and Systems Conference einen Vortrag halten.

Während der Präsentation werden möglicherweise ein Ausblick in die Zukunft und weitere wesentliche Informationen besprochen.


Steht eh eine 'Technologie-Roadmap' aus.

Details sind bzgl. Fab36, d.h. SSOI und Stand 45 nm realistisch.
Auch der 90 nm Start und hier die auch Frage nach SSOI.
Und die bisherige Zusammenarbeit mit IBM.


Frage: I
BM hat bei 90 nm SSOI um 50% geschrumpft, AMD seine 90 nm SOI-Prototypen (190>115 mm2) nur um 40%. Ist SSOI die Ursache.
 
Original geschrieben von HenryWince
@Treverer

> dual-core scheint dringend notwendig.

Na bisher schlägt sich der Opteron recht wacker und AMD kann mit sicherheit noch einige Speed-Grades nachlegen (bisher gibts ja nur die 130nm CPUs!).

> doch dual-core ist selbst mit 90nm schwer vorstellbar, da dann das die wieder zu groß wird. oder dual-core mit nur einem geteilten l2 cache von 1mb? ist das vorstellbar bei 90nm?

Klar ist das Vorstellbar. Sogar sehr gut! Schau mal wie schnell jetzt ein Athlon 64 mit 512k Cache und Single-Channel Memory ist. Jetzt stell dir vor AMD packt auf ein Die genau zwei Cores mit 1MB unified L2. Durch das DC Memory dürfte genug Bandbreite für beide Cores vorhanden sein -- sieht man übrigens auch daran, dass Dual-Boards wo nur eine CPU am Speicher hängt sich auch gut halten. So nun zu den Größen: Schau dir das K8 Die Foto an und du wirst erkennen, dass der Core selber nur ca. 30% der Fläche belegt. Anders gesagt in 130nm wäre ein Dual-Core K8 auf etwa 250mm^2 realisierbar. In 90nm dürfte das 130-170mm^2 entspechen. Du siehst Fertigungstechnisch kein Problem.

Nochwas. Ist euch aufgefallen, dass bisher noch keiner ein Opteron Board für 8 CPUs vorgestellt hat? Womöglich warten die genau auf so eine Dual-Core CPU um ihre 4-Fach Boards in 8-Fach-Systemen zu verkaufen!

> überhaupt: sollte amd bei den heftigen kontern von intel nicht für den serverbereich den opteron weiterentwicklen, die ihn klarer (in der leistung und der architektur) trennt von athlon64 und athlon fx?

Zwei Punkte:
1) Rein vom Entwicklungsaufwand ist es Unsinn zwei CPU Linien mit unterschiedlicher Architektur zu schaffen.
2) Bei Intel sind die Verhältnisse genauso. Die Xeons sind ja auch nicht schneller als die P4!

hm, es kann sein, daß mein post nicht deutlich genug war. natürlich geht dual-core mit 90nm -aber wohl nur mit 1mb l2-cache. und da wir über multiprozessor-systeme sprechen denke ich, daß dies schon gut leistung kostet (schließlich reden wir dann auch über 64bit software = 15% längerer code = 15% weniger l1 UND l2 cache), denn es geht da immerhin um minimal vier volle prozessoren, oder eben acht. da wäre schnelleres ram sicher angebracht. 90nm dual-core und 2mb cache halte ich für ausgschlossen.

aber meine grundthese war ja im grunde, das erstens amd dual-core benötigt und, zweitens, dies nicht warten kann, bis die neue fab steht - also in 90nm. ich habe auch die gründe geschrieben warum ich dies so sehe: g5 dual-core und itanium dual-core (sparc IV habe ich vergessen, obwohl wichtig in diesem zusammenhang). natürlich kann man sich hinstellen und meinen, nur die xeon konkurrenz interessiere. und es stimmt, solange intel dort nicht dual-core oder sonstiges (energie-)wunder schafft, reicht es für amd, den takt zu erhöhen. da wir jedoch sowieso über multiprozessor-systeme reden und damit über angepaßte software, ist klar, daß ein zusätzlicher core mehr bringt als alle mögliche taktsteigerung (braucht man nur prozentual umrechnen in realistisch angenommene rechenleistungssteigerung) .

an dem tag, an dem amd einen dual-core (selbst mit nur 1mb l2-cache) bringt, spielen sie einfach in einer anderen liga. intel kann diesen weg nicht gehen, weil ihr schrott-prescott schon jetzt zuviel strom verbraucht. amd dagegen hat genügend reserven - und viel umbauarbeit ist dafür in meinen augen nicht nötig. vor allem würden sie sich sicher finanziell rentieren, da für die mehrleistung auch ein entsprechend höherer peis genommen werden kann. warum nicht lieber ein dual-core mit 2ghz, welcher mehr leistet als der höchste takt in 90nm von 3,4ghz? wäre doch der richtige weg, oder?

sie würden damit nicht nur sich endgültig vom xeon absetzen, sondern eben auch g5, itanium und sparc noch bessere konkurrenz sein. das mag ja nicht das sein, was ibm und sun sich unter partnerschaft gedacht haben, weil sie amd benutzen wollten, um intels 64bit-durchbruch zu verhindern. dadurch, daß sie amd stützen machten sie jedoch x86-64 hoffähig. warum soll amd nun nicht soviel leistung anbieten wie möglich? ibm und sun können ja nun schlechterdings ihre opteron-server angebote wieder einstampfen, nur weil diese noch mehr leistung bieten als gedacht :-)

was meine bemerkungen zu den zu entfernenden features betrifft: da es sich um server-cpus handelt dachte ich halt, daß man alles überlüssige herausschmeißen sollte, was keinen sinn mehr macht. ob die fpu dazugehört, kann ich nicht endgültig beurteilen, bei 16bit ebenfalls nicht. 3dnow dagegen denke ich auf jeden fall - nur, wieviel millionen transistoren bringt es?
 
3DNow ist doch in der SSE Einheit mitverankert oder ?

Es bringt nichts Dinge rauszunehmen. Das neue Design kostet dann wahrscheinlich mehr als ein paar Transistoren.

MfG
 
@Treverer

hm, es kann sein, daß mein post nicht deutlich genug war. natürlich geht dual-core mit 90nm -aber wohl nur mit 1mb l2-cache. und da wir über multiprozessor-systeme sprechen denke ich, daß dies schon gut leistung kostet (schließlich reden wir dann auch über 64bit software = 15% längerer code = 15% weniger l1 UND l2 cache), denn es geht da immerhin um minimal vier volle prozessoren, oder eben acht.

Vieleicht reden wir wirklich aneinander vorbei. In meinem Posting wollte ich dir auch sagen, dass 1MB Cache für zwei Cores ohne all zu große Abstriche machbar sind, denn:

1) Ein Athlon 64 mit 512k L2 ist grob über den Daumen etwa 10% langsamer als ein gleich getakteter Athlon 64 mit 1 MB L2 => D.h. der Leistungseinbruch gegen über einem Dual-Core Chip mit 2MB L2 wird sich wohl auch bei ca. 10% bewegen.

2) Das Dual-Channel Speicherinterface bringt dem Athlon FX gegenüber einem Single-Channel
Athlon 64 keine Riesenvorsprünge. Der Unterschied zwischen einem Opteron Dual-CPU-Board, bei dem nur eine CPU am Memory hängt, ist nicht weltbewegend anders* als bei einem Board bei dem beide CPUs eigenen (DC) Speicher haben. Ergo ist die Speicherbandbreite des Memorycontrollers so hoch, dass er zwei Cores ohne allzugroße Reibungsverluste verkraftet.

3) Gegenüber Dual-Chip Multiprozessing hat eine Dual-Core Lösung den Vorteil geringerer Latenzen für das Cache-Coherenz-Protokoll. Effektiv werden dadurch die Auswirkungen von 1) etwas gemildert.

*) Die Effekte eines NUMA-Aware OS spielen bei dieser Überlegung keine Rolle.

> 90nm dual-core und 2mb cache halte ich für ausgschlossen.

Wenn AMD wollte könnten sie so eine CPU bingen, aber das ist nicht wirtschaftlich (30% mehr Fläche für 10% mehr Leistung). BTW. Je größer die Die-Fläche, desto höher auch der Ausschuss! Über die Probleme mit der el. Leistung einer solchen CPU rede ich erst gar nicht.


> da es sich um server-cpus handelt dachte ich halt, daß man alles überlüssige herausschmeißen sollte, was keinen sinn mehr macht

Da bleibt von x86 nicht mehr viel übrig ;-)

> 3dnow dagegen denke ich auf jeden fall - nur, wieviel millionen transistoren bringt es?

Nicht seht viele, denn so lange x86-FPU/MMX noch an Board ist ist die Einsparung bescheiden. Tippe auf vieleicht 300'000 Transistoren.
 
http://theregister.co.uk/content/35/35839.html

Die Börsen-Analysten sind gut von Intel u.ä. zur Ungleichung 64 Bit # 64 Bit geschult worden.
Aber ein 'richtiges' 64 Bit - Konzept = IA64 muß sich heute auch der harten Programmwirklichkeit stellen.

http://www.hotchips.org/archive/hc14/hc14pres_pdf/26_x86-64_ISA_HC_v7.pdf

Blatt 10:
Die meisten Programmroutinen kommen mit 8 Registern aus, nochmals einem Schwung reichen 16 Register.
Das Design IA64 mit viel mehr Registern wird so fragwürdig für die meisten Programmieraufgaben.
Besonders Datenbanken und allg. Server-Aufgaben profitieren eher weniger vom IA64-Design - heute, aber auch in der Zukunft.


Im Vergleich zu x86-64 ist 64 Bit beim PowerPC noch trivialer im Design, aber vs. IA64 erschreckend zügig.
Die Einteilung 'teuer in der Entwicklung und Herstellung' muß über 'preiswert' sein, ist menschlich verständlich, aber schon die Verbiegung der 64 Bit Mathematik zeigt den (leider weit verbreiteten) Blödsinn dieser These auf.
Da mittlerweile ja auch IBM seien PowerPC für Supercomputer (= Zahlenfresser) nutzt und Cray den x86-64 für den gleichen Zweck, zeigt die wahre Situation.

Bei: 'Do you really think we'll be running 32-bit processors in new servers (with 64-bitextensions or not) in the post 2010 time frame? I don't`' = Börsenanalalyst Gartner kommt 64 Bit # 64 Bit richtig schön durch, aber jenseits eines technischen Fundamentes.


Mein Fazit:
Das IA64-Design muß sich seine Nische in den nächsten Jahren noch suchen. Das Zeug als 'natürlicher' Nachfolger von IA32 bei Massenanwendungen hat er aber nicht.
 
@Treverer

Hab den Thread mal mit 5 Stars bewertet ;)

Andere finden ja Vergnügen dran echte Leistungen mies mit einem Sternchen zu bewerten.

MFG Bokill
 
dank riknet wurde ich auf folgendes aufmerksam:

http://www.tecchannel.de/hardware/1366/index.html

zuersteinmal: regt mich mal wieder auf, lesen zu müssen, zitat, ". Die 64-Bit-Erweiterung ist kompatibel zum AMD64-Befehlssatz, verfügt aber über zusätzliche Features wie SSE3. " als hätte das eine mit dem anderen zu tun... deppen oder absicht?

egal jetzt, ich möchte folgendes erwähnen: diese widersprüchlichen signale von intel - idf pro iamd64, jetzt wieder der konter pro itanium - ist m.e. die folge dessen, was ich politik im hause intel nannte. zwei verschiedene seiten kämpfen miteinander dort, die p4 fraktion gegen die itanium fraktion. bei beiden geht es ums überleben, d.h. die techniker bzw. involvierten mitarbeiter der jeweiligen seite kämpfen um ihr zukünftiges arbeitsfeld. intel hatte ja mit seinem weg der künstlichen aufteilung des marktes in p4/32bit und itanium/64 bit seine zukunft geplant, damit auch die zukunft der jeweiligen firmensegmente. dies bringt amd durcheinander und seitdem bekämpfen sich die fraktionen intern, was immer für eine schwächung nach außen sorgt. falsche, widersprüchliche signale an den markt, falsche, unausgegorene entscheidungen und und und...

die meldung bei tecchannel ist aber schön in der tradition der itanium-fraktion: ankündigungen für die zukünft ersetzen fertige produkte. diese ankündigungen sind auch immer schön utopien (hier: gleicher preis, doppelte leistung - hahahaha; wahrscheinlich stromleistung LOL). versprechungen ersetzen geschäftlichen erfolg beim ganzen itanium-projekt und gerne würde ich mäuschen bei intel sein und zuhören können, wenn ihnen von der anderen seite diese vorwürfe in einer konferenz um die ohren gehauen werden.

das fatale an den neuen nachrichten aus der itanium-fraktion ist, das sie intels ansehen erneut beschädigen. so etwas kann man nicht machen, schon gar nicht so kurz nach der idf. es ist doch auffällig, wie leise dagegen die p4 fraktion arbeitet. sie konzentrieren sich nicht auf werbungs-geschreih, sondern bauen still und heimlich neue sachen ein in ihren p4 und schaffen damit tatsachen und eben keine zukünftigen versprechungen. wie schlecht die itanium-fraktion ihr geschäft versteht ist - außer an den imensen kosten und den so geringen einnahmen - auch hier wieder zu sehen. sie wollten amd64 schädigen und nehmen dafür in kauf des xeons 64bit erweiterungen zu schädigen. doch schlimmer noch: sie selbst haben hier zum ersten male x86-64 als konkurrenz (und bedrohung) zu ia64 angenommen (=erklärt). genau das gegenteil, was intel noch auf der idf sagte. den leuten dort geht der arsch auf grundeis. sie befürchten das ende ihrer linie, da ende von ia64 - kurzschlussreaktionen ohne rücksicht auf verluste, firmenschädigendes verhalten. amd tut das nun wirklich nicht weh, was sie da ablesen. eher dell...

noch ein paar worte zu den server-tests "opteron vs. neueste, schnellste, teuerste xeons" und den fortschritten von amd bei 90nm: ich bin wieder ruhig, sehe kaum ein problem darin, daß amd diesen wirklich heftigen versuchen intels, das 2-8-systeme-geschäft zu schützen, etwas entgegen setzten kann. takt hoch bei cpu, hyperlink und ram - fertig ist der konter. und in dem moment, wo amd auf dual-core umsteigt, spielen sie nicht nur in der profi-liga, sondern bestimmen bei x86-64 sogar deren güte.

kurz: der tecchannel artikel zeigt nur, itanium ist nicht tot, aber am sterben!


später gefunden:

LOL, wie niedlich, zitat: "
"Wer jetzt auf 64-Bit Extensions setzt, hat in drei Jahren einen Performance-Nachteil", so Tom Garrison von Intel bei seinem Plädoyer für den Itanium"
wer so "argumentiert" muß echt tot sein. sind die fertig...

und das hier zeigt, was da für ein blödsinn erzählt wird: "Nimmt man die oben erwähnten Leistungsdaten als Basis, wäre der Itanium dann auch die schnellere Extension-Technology-CPU.." der itanium soll also so fix sein, daß er x86-64 code schneller emulieren könnte als der prozessoren selbst. na, bei xeons mit x-86-64 code kann das ja stimmen - dann "gute nacht intel" - aber doch nicht bei den amd opterons. man man man, nur geblubber und versprechungen.

leider wagt tecchannel nicht eine wirkliche berwertung der ganzen story, obwohl die zusammenfassung im fazit es deutlich macht: LÄCHERLICH!

p.s.: übrigens, 36 monate sind drei jahre, also 2007 *lach*
 
Zurück
Oben Unten