itanium - und die nächsten 36 monate

Treverer

Grand Admiral Special
★ Themenstarter ★
Mitglied seit
23.07.2001
Beiträge
3.208
Renomée
107
Standort
Trier
  • SIMAP Race
  • QMC Race
seitdem es heißt, intel bringe jetzt doch 64bit für p4 bzw. xeon wird viel diskutiert, ob dies das ende des itanium sei. auch hier wurde verteilt auf viele threads manchen dazu gesagt, aber um es zu bündeln, möchte ich das thema erneut eröffnen. nichts besonders neues, nur auf den punkt gebracht. so wie auch in einem anderen artikel. wobei klar ist, nach der idf sehen wir ein wenig klarer...

ich möchte es nochmals erwähnen, weil es in vergessenheit zu fallen droht: amd hat den opteron offiziell als gegner des xeon proklamiert. daran sollten wir uns erinnern in fünf jahren, wenn es den itanium nicht mehr gibt, die opteronen jedoch geld in amds kasse spülen. LOL diese positionierung war von amd so offiziell, wie ihr rating sich auf alte thunderbirdkerne bezieht: also marketing. um überhaupt in den markt eindringen zu können, mußten sie so etwas natürlich sagen.

das bessere ist der feind des guten. nun, da klar scheint, daß der xeon in seiner jetzigen form kein ebenbürtiger gegner für die opteronen-systeme ist, da stürzt sich die meute (=wir! :-) ) natürlich auf neue schlachtfelder: opteron vs. itanium. nur: ist dieser (gewünschte) kampf wirklich ein kampf unter gleichen? ist x86 nicht eine schrott-architektur und der itanium der notwendige bruch, um in leistungsbereiche zu kommen, die bisher unerreichbar erschienen? so habe auch ich gedacht vor zwei jahren - heute sehe ich es anders.

ich liebte assembler-code auf den motorola-prozessoren. und x86 code war mir immer nur eines: grauen. nur: heutzutage kümmert man sich (fast) nicht mehr um solche sachen, denn der compiler hat dieses zu erledigen. das sieht faktisch so aus, daß zumindest ich nicht mehr peile, was für einen code mir ein compiler zurecht bastelt und am code nicht ohne weiteres erkennbar ist, ob es der schnellere, bessere lösungsweg ist. doch zurück zum fight...

ob nun x86-64 (amd64; aa64) inkl. sse2 oder epic-code für den itanium: der compiler bastelt einen code speziell für die jeweilige cpu. wenn man davon absieht, daß mit x86 vielmehr erfahrung (=billige programmierer) zur verfügung stehen, herrscht bei itanium und opteron gleicher zusätzlicher aufwand.

durch den itanium versprach man sich aber soviel mehrleistung, so daß dieser zusätzliche aufwand gerechtfertigt schien. jedoch ist diese "idee" über zehn jahre alt. heute stossen die x86 prozessoren in leistungsregionen vor, die damals nicht denkbar schienen. sie liegen eben nicht welten hinter denen des itanium, nicht einmal bei seiner stärke, der fpu. und man kann nicht einmal argumentieren, dies liege am besonders hohen takt, der nunmal beim itanium weder notwendig sei noch möglich (wobei letzteres stimmt). ja gut, der ipc des itanium ist höher. aber zu welchem preis? was muß man wirklich vergleichen? in meinen augen zeigt sich die effezienz einer architektur und eines prozessors an folgenden dingen (in der reihenfolge entsprechend meiner wertung):

1. der energieverbrauch
1a. die skalierfähigkeit mit der anzahl der cpus (bei mehrprozessorsystemen)
2. die größe des die
3. die größe der caches
4. die geschwindigkeit des rams

punkt 1,2 und 3 sehen schlecht aus für den itanium. und zwar so schlecht, daß in meinen augen die aussage, x86 sei schlechter als epic einfach nicht mehr stimmt. oder anders ausgedrückt: meine meinung von vor zwei jahren stimmt nicht mehr. cray nahm nicht ohne grund keine itaniums... :-)

die frage ist, ob intel etwas ändern kann an dieser schlechten ausgangssituation? das sehe ich nicht. ihr weg ist es, den l3-cache weiter zu vergrößern (wie war das? 24mb im jahr 2005?). genaus, wie sie es beim xeon machten - und damit auch nicht mehr gegenankommen.

wo ist den amd im jahre 2005 (zum ende :-) ) mit den opterons? bzw. welche möglichkeiten gibt es dann für die einfachsten normal-user? man kauft ein quad-opteron board mit vier cpus jeweils mit 3ghz; jede cpu mit eigenem Ram (4 X 2GB DDRII@533); hypertransport-links zwischen den cpus auf 20GB/sec erhöht (na, eher verdoppelt zu jetzt auf über 24gb/s); der energie-verbrauch wird dank 90nm nochmals sinken (und vielleicht durch verbesserung von soi - sie nutzen meines wissens ja noch nicht das optimale 100% verfahren; kann ja jemand nochmals schreiben, wie das hieß.. :-) ); und 2006 mit der neuen fab in dresden und 65nm wird es dann dual-core on die geben...

genau diese zukunft sieht intel drohen - ihr 64bit für xeon ist jetzt die reißleine, da der itanium sich nicht mehr durchsetzen wird können. und - verheerend - eigentlich haben sie schon zu lange gewartet, firmeninterne kämpfe, wie ich woanders ja schon schrieb. genug für jetzt, danke fürs lesen.
 

Bokill

Gesperrt
Mitglied seit
18.01.2002
Beiträge
5.689
Renomée
60
Standort
Bremen
@Treverer

Du magst wohl meinen Strategiethread Strategische Überlegungen64Bit; IBM SUN AMD Intel nicht ;) ...

Nein ist OK so dieser Thread bündelt dies ja auf den Zweikampf Itani(c)um Opteron. Macht dies wesentlich kompakter und zugespitzter ;)

Zu den Fragen:

1. Energieverbrauch
Hmm nun dies ist nicht nur ein Architekturmerkmal, dies hängt auch eng mit der Fertigungstechnologie zusammen.

Tendenziell produziert der Itani(c)um mehr Daten, die Codedichte ist nicht so dicht wie bei X86. In einem Anderen Forum wurde mal gesagt, dass x86 eine Kompressionstechnik sei. Die Bitlänge ist bei x86 variabel. RISC ist da ja starr. EPIC ist in dieser Hinsicht ja auch starr.

In der anderen Hinsicht ist der reine Kern bei EPIC sehr kompakt. Das ganze Gedöns zum Optimieren der Daten (OutofOrder) OoO zur Laufzeit fällt weg.

1a. Skalierfähigkeit Anzahl CPUs (Mehrprozessorsystemen)
Tja da hat sich Intel derzeit selbst ein Ei gelegt. Bislang ist dies noch ein Bussystem und bei mehreren CPUs balgen alle CPUs um Bandbreite, dass EPIC zusätzlich die Daten afbläht ist nicht wirklich praktisch ;)

Allerdings scheint mir dies weniger eine EPIC-Schwäche zu sein, denn Intel könnte immer noch eine spezielle Linkverbindung schaffen.

A. Dumm bleibt aber dabei, dass EPIC immer noch die Daten aufbläht.
B. Und ebenfalls dumm ist, dass ein Itani(c)um mit eigener neuer IO-Schnittstelle garantiert nicht mehr auf bisherige System passt.
C. Ganz fatal wird dies, da Intel eine Langzeitgarantie für den Itani(c)um gab. Es scheint mir, dass sie sich entweder verzetteln werden. Oder aber zu lange auf den alten Buskonzept klebenbleiben. Is auch eine spannende Frage, ob sie ein integriertes Speicherinterface einbauen wollen.

2. Diegrösse
Tja liegt wohl an der Cachelastigkeit.

3. Cachegrösse
Intel hat sich selber in die Cachefalle hereinbugsiert. Allerdings kan sich Intel sich dies auch erlauben, da sie immer technologisch Spitze waren in der Fertigungstechnik. Ihre Rechnung geht dann besonders auf, wenn die Software genau auf die Intel-Bedürfnisse gestrickt wird.

4. Geschwindigkeit RAM
Tja wer bandbreitenfressende CPUs baut, der ist süchtig nach Cache und Ram. Bei dem derzeitigen Trend der immer billiger werdenden Speichergrösse ist dies kein Problem, aber grosser Code ist indirekt ja eine Bandbreitenbremse.

Die Lösung ausd em Dilemma ist meiner Meinung nach Brachiale Rechenkraft, aber dies erzwingt noch viel gigantischere Caches (L3 Cache) und schnellere Speicheranbindungen.
Genau dies ist ja für die Nachfolger geplant, aber grosse Diefläche war nie besonders kostensparend.

Was ich derzeit nicht sagen kann, ist ob die MP-Itani(c)ums untereinander den Cache teilen. Die Opteronen können dies (NUMA) . Tendenziell kann so Cache eingespart werden, dummerweise wird so aber mehr Last auf dem Bus/Link erzeugt

Bei den Speicheranbindungen/Typen wird die Konkurrenz aber nie Welten auseinander sein. Der Markt hat ein Interesse an gemeinsame billige Standards.

Die Lektion musste Intel ja schon lernen ;) (Rambusdesaster)
Möglicherweise könnte man den Itani(c)um als verspätetes RAMBUS-Kind verstehen... denn Rambus versprach ja Bandbreite und MHz satt.

Zu dumm nur, dass die Anforderungen des Marktes anders gelagert waren. Mir scheint dass Intel zu sehr auf Technologie/Patente und weniger auf Konzepte gesetzt hat.

Erstaunlich ist ferner, dass selbst künstliche Marktbereinigung nicht den Erfolg zeigte, wie erwünscht. Denn es gab schon lange vor dem Opteron und Itani(c)um 64Bit CPUs *AlphaGedenkminute EV-8einhalt* und HP PA-RISC (PA 8800) ist ja auch so aus marktpolitischen Gründen eingeschläfert worden.

Wie gut, dass IBM/Motorola da noch ein gewisses Gegengewicht bilden, SUN ist ja auch noch nicht tot mit dem SPARCs und Fujitsu schmiedet da ganz scharfe Schwerter mit dem SPARC V. Und Fujitsu ist ja mehr als eine CPU-Schmiede, di basteln ja auch Dicke Eisen mit anderen Herstellern, zum Teil bappen die auch nur noch das Fujitsulabel rauf, drin ist aber EMC (Storage Spezialist) EMC channel strategy analysis .

MFG Bokill
 
Zuletzt bearbeitet:

rkinet

Grand Admiral Special
Mitglied seit
11.12.2003
Beiträge
9.066
Renomée
58
Standort
Weinheim/ Bergstr.
CISC, RISC und EPIC

Das kommt davon, wenn man Ingenieure eine CPU konstruieren lassen, die nie intensiv in Assembler programmiert haben.


CISC wurde ja 'menschengerecht' gestaltet, damit der Programmierer möglichst gut den Überblick noch behält. Als Nebeneffekt durch die 'c'omplexen Instruktionen, welche eh schon von den ersten CPU's gleich (68000 Microcode) in hardwaremäßig handhabbare Portionen zerlegt wurden, ergab sich ein kompakter Code.

Ok, das IA32 Design ist das abschreckenste Beispiel für CISC, aber konnte beim 386 (weitgehend IA32) doch mit gut 300.000 Transistoren in Silicium 'gegossen' werden.

RISC war ein deutlicher Fortschritt, aber der kompakte CISC-Code vereinfacht und beschleunigt im Vergleich dazu auch ungemein viele Aufgaben.

Meiner Meinung nach sind die Intel-Ingenieure mit CISC-Scheuklappen und dem 'viel moderneren' RISC im Hinterkopf an die Arbeit gegangen ohne ein Gefühl für die Beschleunigungs- aber auch Bremseffekte von realem Code zu haben.


Beim Itanium / EPIC finde ich die vielen Register (Erbe von RISC) und die prinzipiell viel einfachere Verarbeitung der Opcodes wegweisend. Als alter 6502, teils Z80, 8051 u.68000, sowie ATMEL AVR (8 Bit RISC) Programmierer stehe ich aber fassungslos vor dem Codeumfang von EPIC. Das konnte nicht gutgehen und der real existierende Itanium ist der beste Beweis. Streng genommem lebt die CPU nur von ihren vielen Registern und dadurch entbehrlich reduzierten Transfers bei kompakten Aufgaben (Mathematik). Auf einem Desktop würde die Kiste völlig einbrechen.

Der Itanium gehört auf den Müll !
EPIC pur ist Murks und kann mit noch so gutem Cache oder RAM nicht zum Leben erweckt werden.


Der Stromverbrauch des Gerätes ist ein Witz und (s. auch Bokill) das Werk ungeeigneter Fertigungsverfahren. Eine CPU auf Centrino-Niveau schluckt bis zu 135W, unglaublich der Murks. Aber der Prescott vs. Centrino-90 nm zeigt, daß Intel keinerlei Wert auf energisch und thermisch optimiertes Schaltungsdesign bei stationären Konzepten legt.

Gut im Rennen um die Zukunft liegt heute das PowerPC-Design und mit etwas Abstand, der AMD64 als CISC/RISC Kombination. Beide haben die nächsten Jahre noch gutes Potential beim Takt, wobei noch die Leitungsaufnahem stabil oder sinken wird.
Gegen SOI-90 nm, SOI-65 nm o. Strained SOI-65 nm und Strained SOI-45 nm hat Intel bis 2007/8 schon lt. eigenen Aussagen nichts zu bieten. Und IBM/AMD kann locker Multi-Core Systeme auf den Markt bringen.
Und ob der Itanium so lange in einer Nische überleben kann ?
 

NemesisTN

Vice Admiral Special
Mitglied seit
11.11.2001
Beiträge
876
Renomée
3
Standort
Nürnberg
Original geschrieben von Treverer
...(und vielleicht durch verbesserung von soi - sie nutzen meines wissens ja noch nicht das optimale 100% verfahren; kann ja jemand nochmals schreiben, wie das hieß.. :-) )...
Gerne doch:
partial depleted SOI und fully depleted SOI... =)
 

skyphab

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
13.832
Renomée
86
Standort
8002 Zürich
hi.
dumme frage zwischendrin: in den benchmarks liegt der opteron immer hinter meinem p4 northwood, teilweise sogar weit. wo sind denn die stärken des opteron als server-prozessor? macht der wirklich nur in backendseitig sinn und dann wiederum nur auf servern? ich hab da noch nie dementsprechende benchmarks gesehen?

ich will mich nicht tiefer damit beschäftigen, geht mir nur um den überblick :)
 

Ray2k

Grand Admiral Special
Mitglied seit
16.10.2000
Beiträge
4.386
Renomée
17
  • SIMAP Race
@skyphab

DIe stärken des Opteron liegen vor allem bei Multiprozessor Systemen. Da hier der On-Die-Memorycontroller wahnsinnige Vorteile hat.
Er war und wird niemals ein Gegner für den normalen P4 sein wobei er auch hier sehr gut aussieht.
vgl. u.a hier
http://www.anandtech.com/cpu/showdoc.html?i=1818&p=7
Gegen den P4 stehen ausschliesslich der normale A64 sowie der FX(insbesondere ab März mit dem S939)
 

Nightshift

Grand Admiral Special
Mitglied seit
19.08.2002
Beiträge
4.446
Renomée
81
Standort
Tief im Weeeeeesss-teheheheeen ;-)
  • SIMAP Race
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
Überblick ;)
Da wird jemand ganz schön zersägt...
Die älteren Benchmarks auf TecChannel sind dann leider Premium.
 

Treverer

Grand Admiral Special
★ Themenstarter ★
Mitglied seit
23.07.2001
Beiträge
3.208
Renomée
107
Standort
Trier
  • SIMAP Race
  • QMC Race
Original geschrieben von skyphab
hi.
dumme frage zwischendrin: in den benchmarks liegt der opteron immer hinter meinem p4 northwood, teilweise sogar weit. wo sind denn die stärken des opteron als server-prozessor? macht der wirklich nur in backendseitig sinn und dann wiederum nur auf servern? ich hab da noch nie dementsprechende benchmarks gesehen?

ich will mich nicht tiefer damit beschäftigen, geht mir nur um den überblick :)

von welchen benchmarks sprichst du? von synthetischen wie z.b. sisoft sandra? in den realen anwendungen gibt es doch nur zwei bereiche, wo ein p4 noch mithalten kann: viedo-encoding und...das zweite habe ich vergessen...lol oder kann es sein, daß du einen p4ee hast? da sieht die lage ja etwas anders (=besser) für intel aus. und würde ja auch zum thema passen, da der p4ee ja sowieso nur ein xeon ist. also zurück zur frage, warum ein (nein, mehrere!) opteron besser ist als ein xeon-system: er skaliert besser!

zum einen laufen meines wissens die xeons@3,2ghz auch nur mit fsb533 und sie müssen sie die bandbreite zum ram auch noch teilen (deswegen wurde der l3 dort eingeführt). ich meine, es gibt auch boards, die dies beheben, die sind aber sehr teuer wegen ihrer spezial-lösung. durch den integrierten memory-controller und die hyperlink-verbindung untereinander skalieren die opterons sehr viel besser mit der anzahl der verfügbaren cpus.

tests findest du bei anandtech und aceshardware. wie üblich hängt das ergebnis eines benchmarks auch dort von der software ab. vor monaten z.b. wurde ja mal auf einem vierfachsystem seti getestet, indem jedes seti-programm einer cpu (und dem lokalem ram) fest zugeteilt wurde. so war es wenig verwunderlich, daß die berechnung nahezu viermal in gleicher zeit stattfand (ausnahme: die eine cpu, die für i/o zuständig war - die brachte nur noch 99% der bisherigen leistung LOL). das schafft natürlich kein p4 (auch nicht mit ht :-) ), da dort sich alle ein ram und einen fsb teilen müssen. auf aceshardware findest du unter benchmarks auch spec-werte für multiprozessor-systeme. dort wird deutlich, wieviel besser die opterons sind und auch, daß sie beginnen, an der fpu-leistung der itaniums zu kratzen, wenn ein paar "tuningmaßnahmen" erfolgen...


http://www.aceshardware.com/SPECmine/index.jsp?b=1&s=0&v=1&if=0&r1f=2&r2f=1&m1f=0&m2f=3&o=0&o=1

http://www.aceshardware.com/SPECmine/index.jsp?b=1&s=1&v=1&if=0&r1f=2&r2f=1&m1f=0&m2f=3&o=0&o=1

http://www.aceshardware.com/SPECmine/index.jsp?b=1&s=1&v=1&if=0&r1f=2&r2f=2&m1f=0&m2f=3&o=0&o=1

http://www.aceshardware.com/SPECmine/index.jsp?b=1&s=1&v=1&if=0&r1f=2&r2f=2&m1f=0&m2f=3&o=0&o=1

bei fp leistung fehlt aber dann doch noch viel, aber spec ist ja nicht das maß aller dinge:

http://www.aceshardware.com/SPECmine/index.jsp?b=3&s=1&v=1&if=0&r1f=2&r2f=1&m1f=0&m2f=3&o=0&o=1

http://www.aceshardware.com/SPECmine/index.jsp?b=3&s=0&v=1&if=0&r1f=2&r2f=1&m1f=0&m2f=3&o=0&o=1

http://www.aceshardware.com/SPECmine/index.jsp?b=3&s=1&v=1&if=0&r1f=2&r2f=2&m1f=0&m2f=3&o=0&o=1

http://www.aceshardware.com/SPECmine/index.jsp?b=3&s=0&v=1&if=0&r1f=2&r2f=2&m1f=0&m2f=3&o=0&o=1

 

Treverer

Grand Admiral Special
★ Themenstarter ★
Mitglied seit
23.07.2001
Beiträge
3.208
Renomée
107
Standort
Trier
  • SIMAP Race
  • QMC Race
@bokill

doch, den strategieartikel mochte ich sehr. aber hier geht es eben um einen punkt speziell

zu deinen bemerkungen:

1. energieverbrauch (was ja schon vom wort her blödsinn bei mir(!) war)
ob nun architektur- oder fertigungtechnisch bedingt ist ziemlich wurscht für die frage, ob es ein merkmal für die güte einer cpu ist. wenn ein autohersteller keine autos mit gummi sondern nur mit holzrädern herstellen kann (und dessen kisten deswegen nur 130 auf der autobahn schaffen LOL), dann streiten wir ja auch kaum darum, ob es architekur und fertigungsdefizit ist, oder? ;-)

wie dem auch sei: wenn ich fälschlicherweise energieverbrauch sage und stromverbrauch meine, dann soll dies bedeuten: wieviel rechenleistung bekomme ich bei einsatz von wieviel stromleistung. und das frage ich nicht einfach, weil öko in ist, sondern vielmehr, weil daran deutlich wird, wer effizienter arbeitet. z.b. kann man feststellen, daß der itanium2 bei fpu leistung mit weniger takt die opterons zersägt. der ipc ist dort anscheinend höher. doch bringt man den stromverbrauch mit hinein (welcher wiederum ja auch abhängig ist von der anzahl der transistoren = cache größe), dann sieht es doch erheblich anders aus. der itanium2@1500 hat wohl in etwa den doppelten stromverbrauch eines opteron@2000.

schwierig wird es jedoch bei der bewertung, welche cpu den das größere zukunftspotential hat. man kann argumentieren der itanium2 (=das auto mit den holzrädern) habe das größere zukunftspotential, da er weder den hohen takt geschweige denn soi hat. genausogut kann man argumentieren, ein opteron hätte mehr spielraum, weil sich seine guten werte leicht erhöhen lassen durch höheren takt und mehr cache (was nichts anderes bedeutet, als das verhältnis rechenleistung pro stromleistung zu verschlechtern). die frage ist also, wie man "fortschritt" messen definiert, wo man überhaupt hin will in einer entwicklung. meine persönliche wertung sieht halt so aus, daß ich bevorzuge, wenn mehr rechenleistung aus weniger stromleistung gewonnen wird. genau davon ist intel jedoch weit weg - beim prescott ebenso wie beim itanium. warum?

ist eigentlich ganz simpel und psychologisch klar: sie sind als marktführer diejenigen, die den weg angeben und alle anderen müssen sich nach ihnen richten. denken sie zumindest. sie haben als erstes im blick ihre cpu mit einer entsprechenden leistung - egal was es (anderen) kostet, welchen finanziellen und technischen aufwand andere treiben müssen. als marktführer bestimmen sie, den anderen bleibt nur "friß oder stirb". das wäre so, als würde ein automobilbauer einen motor herstellen, der nur mit bestimmten benzin fährt und spezielle straßen benötigt - weil er nur sein produkt im auge hat, die (markt-)realität interessiert ihn nicht.

rambus war so ein beispiel, btx-boards ist so ein beispiel, energieverbrauch war und bleibt so ein beispiel. als markführer willst du die welt bewegen durch macht (= verschwendung steigern) - als david versuchst du es mit köpfchen, indem du die bestehenden verhältnisse besser für dich nutzbar zu machen (=effizienz steigern).

gemein ausgedrückt: intel ändert spezifikationen, damit die realität sich den bedürfnissen ihrer cpus anpaßt, amd ändert die cpu. nicht irgendwo, sondern an den entscheidenen schwachstellen: hoher stromverbrauch und anbindung an den langsamen arbeitsspeicher. letzteres problem geht intel ja auch an, weil sie es auch als entscheidendes sehen. doch sie verlangten rambus, verlangen jetzt ddr2 und sie erhöhen den cache auf dem die (= höherer stromverbrauch). hat schon mal jemand richtig darüber nachgedacht, was die hammer prozzies für gurken wären ohne integrierten memory controller? und wieso wurde noch niemals gefragt, ob dual-core-on-die nicht auch heißt, dual-memory-controller? weil die ram anbindung (vor allem latenz) doch der größte schwachpunkt war, ist, bleibt - ddr2 ändert gar nichts daran...

um gerecht zu bleiben: als marktführer muß intel auch die rolle des leitwolfes übernehmen. das ist der preis des herrschens. ebenso, daß amd natürlich von dieser führungsrolle auch profitiert (= schmarotzt) - wenngleich sie sicher froh wären, wenn sie mal endlich 30% markanteil hätten und selber führerschaft übernehmen. upps, haben sie ja gerade bei amd64 - hmm, der leitwolf hat geschlafen bzw. die realität wollte wiedermal nicht so, wie die böse, dunkle, unlustige macht es wollte. so ist das leben, voller überraschungen..heul doch intel...fett geworden und behäbig...sollten sich mal endlich wieder besinnen auf technische qualifikation und nicht auf manager- und marketing-entscheidungen. mal sehen, vielleicht überraschen sie uns ja alle am 17. aber ich glaube nicht an die v-waffe. haben schon mal versagt :-)))
 

i_hasser

Grand Admiral Special
Mitglied seit
06.06.2002
Beiträge
18.969
Renomée
85
Standort
IO 0x60
Der Takt ist bei verschiedenen CPUs eigentlich weitestgehend egal. Intel macht es doch vor, der P4 läuft auf 3.4GHz und den Itanicum würde man sicher nicht über 2GHz bekommen. Mit der Architektur bestimmt man wie schnell die CPU läuft.

Gutes Beispiel ist der K5 (;)@Bokill) - rein technologisch gesehen war der K5 seiner Zeit und dem Pentium1 um längen voraus, selbst der K6 hat nicht die IPC geschafft und der PMMX (der einen PPro Kern hatte) auch nicht.
Das Problem der Sache war eben nur, dass die K5 Architektur zu komplex war und so konnte man das Ding nicht gut takten. Ich hab meinen nicht über 143MHz hinausbekommen, und auch da nur instabil.
Intel konnte den P1 (der noch ein reinrassiger CISC war und technologisch meilenweit hinter dem K5 hinterher war) allerdings locker auf 166MHz Takten, und den P1MMX dann auch über 200MHz.
Da hat dem K5 die Technologie einfach nix genutzt. Ich denke (rein technologisch) kann man die Effizienz einer Architektur eher mit IPC*(max. Taktrate) darstellen (bei gleichen Fertigungsverfahren).

Und da sieht die Geschichte Opteron<->Itanium schon wieder wesentlich anders aus.

Nur ist es beim Opteron daneben eben wirklich die verdammt gute Skalierbarkeit. Wenn du einen Hochleistungsrechner bastelst hast du verschiedene Möglichkeiten. Du kannst viele CPUs auf einem Board zusammentackern und du kannst viele kleine Cluster Systeme schaffen.

Ersteres hat den Vorteil dass sich damit auch bei zeitkrittischen Dingen und von einander abhängigen Dingen gute Leistung erzielen lässt. So profitieren eben viele Dinge von SMT oder SMP. Der große Nachteil ist die Skalierung - du verschenkst irgendwo Leistung.

Die 2. Variante hat den Vorteil, dass du bei massiv parallelisierbaren Sachen (zb. Rendering eines Films) keine Leistung verschenkst. Dafür kannst du die Lösung bei zeitkrittischen Sachen vergessen, weil es einfach zu lange dauert bis ein Cluster seine neue Aufgabe erhalten hat usw.
Inzwischen nutzt man bei Clustern schon propritäre Verbindungen mit deutlich über 1GBit/s - bei 2 Nodes mag das ausreichen, aber bei 1024 Nodes werden auch 10GBit/s knapp.


Insgesammt ist die 1. Variante günstiger, schöner und einfacher. Das liegt einfach daran, dass die einzelnen CPUs hier in der Kommunikation näher beeinander liegen. Das ist immer von Vorteil.
Dann ist da aber eben der Nachteil mit der Skalierbarkeit - ich hab das für eine Facharbeit irgendwann mal rausgesucht, ein 64x PA-RISC liefert beispielsweise nur ca. die 45fache Leistung eines einzelnen PA-RISC. Da arbeiten 19 CPUs umsonst.

Der Opteron dreht den Spieß einfach um, ein Quad oder 8fach Opteron gespann liefert teils mehr als die 4/8fache Leistung einer einzelCPU.

Wenn du jetzt zb. 1024 8fach Opteron Nodes clusterst hast du immernoch vergleichsweise recht wenige Cluster (10240 Nodes sind keine Seltenheit), die dafür jeweils doch eine recht beachtliche Rechenleistung liefern.
Damit kannst du zeitkrittische Aufgaben einzeln Lösen und im größeren Zusammenhang ergibt sich sowieso öfters die Möglichkeit zu parallelisieren.


Oder um das nochmal zusammenzufassen: Ein Opteron wird von einem P4/Xeon oder einem Itanium überholt.

4/8 Opterons zersägen dagegen so ziemlich alle 4/8fach Xeons und Itaniums.
 

Treverer

Grand Admiral Special
★ Themenstarter ★
Mitglied seit
23.07.2001
Beiträge
3.208
Renomée
107
Standort
Trier
  • SIMAP Race
  • QMC Race
na, beim xeon mag das zwar stimmen, aber beim itanium nicht.

und natürlich skaliert auch ein opteron mutliprozessor-system nicht mit über 100%, wie deine aussagen suggerieren...
 

i_hasser

Grand Admiral Special
Mitglied seit
06.06.2002
Beiträge
18.969
Renomée
85
Standort
IO 0x60
Je nach Anwendung schon, weil die Speicherperformance mit mehreren CPUs ansteigt ;)
Mal vom Cache abgesehen - wenn die eine CPU etwas macht wo man viel Rechenleistung braucht und die andere was wo man viel Cache braucht würde sich das ideal ergänzen. Natürlich ist das die Ausnahmen, auch der Opteron wird im Schnitt nicht mit 100% skalieren... aber doch deutlich besser als Itanium und Xeon.
 

Treverer

Grand Admiral Special
★ Themenstarter ★
Mitglied seit
23.07.2001
Beiträge
3.208
Renomée
107
Standort
Trier
  • SIMAP Race
  • QMC Race
das ist schon erheiternd: ich habe mir dann doch mal wieder heute die c´t gekauft, und was finde ich da? ein vergleich der verschiedenen prozessoren nicht nur in der rechenleistung sondern im verhältnis zum stromverbrauch. nur ein ausschnitt:

energiebedarf [Wh]
p4ee@3,2 5,9
p4e@3,2 8,9
a64 3200+ 3,7
axp 3200+ 6,0

genau das ist es, warum ich die hammer cpus für besser und effizienter halte. das prescott ergebnis ist verheerend. jetzt hätte ich solche tabelle auch gerne mal für den pentium M und via c3 gesehen. ich denke, wegen soi liegt amd da immer noch vorne...

ich glaube ct nahm nur die povray-werte und dort hatte der a64 den vorteil, in 64bit zu laufen. und dort sah der prescott besonders schlecht aus. aber trotzdem: die tendenz ist klar. ich finde auch lustig, daß deutlich wird, daß der athlon xp und der northwood auch hier auf ziemlich gleichem niveau lagen und amd dann mit den hammer cpus einen riesen schritt nach vorne machten...
 

rkinet

Grand Admiral Special
Mitglied seit
11.12.2003
Beiträge
9.066
Renomée
58
Standort
Weinheim/ Bergstr.
Original geschrieben von Treverer

energiebedarf [Wh]
p4ee@3,2 5,9
p4e@3,2 8,9
a64 3200+ 3,7
axp 3200+ 6,0


Leistungsdichte:
p4e @3,2 ca. 90 W/cm2
a64 - 130 ca. 50 W/cm2 max.
a64 - 90 ca. 60 W/cm2 max. (115 mm2 / 70 W max. / 3,5-4 GHz!?)


Nehme Wetten an bzgl. Intel / 65 nm ... (Mein Tip: 150 W/cm2)
 

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
21.717
Renomée
8.543
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
Weils hier so schoen herein passt mal der Paradigmenwechsel des Itanic am Beispiel der Analysten von Gartner:

Oktober 2002
http://techupdate.zdnet.com/techupdate/stories/main/0,14179,2884970,00.html
"Gartner strikes at Yamhill, drives nails into Hammer's coffin"

Geistige Urheber unter anderem George Weiss und John Enck

" In AMD's case, the analysts don't believe the Opteron meets any of the criteria for new processor adoption--application vendor enthusiasm, server vendor commitment, server vendor enthusiasm, or and customer enthusiasm. Even with OS support from Windows and Linux, unless there's a change in those critical aspects of Opteron's ecosystem, I am standing by my previous assessment: that when it comes to enterprise computing, Opteron is going to be a dud."

*Hust* Na wuerde jemand nach deren Empfehlungen sein Geld anlegen? *noahnung* ;D

4. Februar 2004

http://www3.gartner.com/DisplayDocument?doc_cd=119609

HP's Choice of Opteron Chip Will Roil the Server Industry



Autoren: John Enck | Andrew Butler | Adrian OConnell | Martin Reynolds | George J. Weiss (irgendwie kommen mir ersterer und der letzte bekannt vor ;D )

"Gartner has long believed that a market opportunity exists in the space between IA-32 processors and Itanium server technology. Technologically, AMD&#8217;s Opteron processor neatly fits this space." (long = was kuemmert mich mein Geschwaetz von gestern)

*motz*

Dank an dieser Stelle an kpf aus dem AMD Boersenboard fuer die Weitergabe der Links :)
 

rkinet

Grand Admiral Special
Mitglied seit
11.12.2003
Beiträge
9.066
Renomée
58
Standort
Weinheim/ Bergstr.
Wenn der Wert noch in den Büchern bei Intel steht, müßte eigentlich abgeschrieben werden.

So einfach will wohl niemand diese Investitionsruine zugeben.

Tippe mal, sobald Chief Barret (64) in Rente geht, wird der Itanium auf Sparflamme gesetzt. Und ihm eben die 1 Milliarde in die Schuhe geschoben.


Der Itanium ist ein Produkt, daß die Kundschaft nicht will.
Die Xeon 64 werden auch bzgl. Geschwindigkeit vs. Itanium im Laufe von 2004 den Chip überholen.
Intel müßte beim Itanium technisch und im Design (Codegröße) nachrüsten, aber es will und wird wohl keiner mehr Geld dafür i.d.Hand nehmen.


IBM, AMD etc. zeigen, daß 'normale' CPUs auch Aufgaben von Großrechnern erledigen können. Wozu dann noch ein anderes Design ? Schneller als schnell geht nicht, und die Rechenergebnisse eines Itanium unterscheiden sich nicht von eim G5-Cluster.


Fazit: In 36 Monaten ist der Itanium im Museum.
 

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.643
Renomée
2.249
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
Jo Geschichte ist was Schönes, Danke nochmals an Pipin für die Links.
Mein Favorit :

The analysts were equally bearish about Yamhill, but for different reasons. Intel's entry into the hybrid space could legitimize the 32/64 hybrid approach which, based on the enthusiasm for Opteron, currently has limited legitimacy. At a time when Intel is determined to buck analysts' estimates for IA-64's market penetration, the last thing that Intel will want to do is cannibalize Itanium's chances of success with architecture. For that reason, Enck and Weiss say Yamhill will never see the light of day.

Tja ... war wohl nix.
Aber ich denke der Itanium wird nicht komplett verschwinden, im Großrechnerbreich hält er sich auf alle Fälle, schon alleine weil HP ihre eigene Linie aufgeben und Alpha "dank" dem Verkauf (über den ich mich immer noch aufregen könnte) ja bei Intel gelandet ist. Ich denke die ex-DEC ingenieure zimmern da schon eine "vernünftige" CPU zusammen. Wobei das Beste dabei wohl ein Alpha mit IA-64 Kompatibilitätsmodus wäre ;)

ciao

Alex
 

Crashman

Grand Admiral Special
Mitglied seit
12.06.2002
Beiträge
2.054
Renomée
7
Standort
derzeit München
Ich würde den Itanium auch nicht abschreiben. Im Moment bringt er es noch nicht wirklich, aber in 2-3 Jahren und mit ordentlich Alpha Technologie wird er noch zum Biest werden. Vorausgesetzt, das Projekt wird vorher nicht gestoppt.

MfG
 

i_hasser

Grand Admiral Special
Mitglied seit
06.06.2002
Beiträge
18.969
Renomée
85
Standort
IO 0x60
Naja, ich seh das nicht so optimistisch - in 2 bis 3 Jahren wird der Itanium hoffnungslos veraltet sein, und dann helfen auch nochmal verdoppelte Caches nichts.
Der Itanium wird noch zum Monster - aber nur zum Cachemonster (ok, isser ja schon *buck*), Leistungsmäßig wird da denke ich kein Quantensprung passieren.
 

Crashman

Grand Admiral Special
Mitglied seit
12.06.2002
Beiträge
2.054
Renomée
7
Standort
derzeit München
Die Frage ist ja, wieviel bis dahin von der jetzigen Architektur noch übrig ist. Mit einer verbesserten Architektur lässt sich da doch einiges machen :)

MfG
 

rkinet

Grand Admiral Special
Mitglied seit
11.12.2003
Beiträge
9.066
Renomée
58
Standort
Weinheim/ Bergstr.
http://www.theregister.co.uk/content/51/35654.html

Intel confirmed it will bring 64-bit technology to the desktop when Microsoft ships the next major version of Windows, codenamed 'Longhorn'.
And it is likely to bring the recently announced AMD64-like "64-bit extensions" system to the mobile market in the same timeframe, company representatives said today.



Also: grob 2006


Der Itanium wird zum Rand-Ereignis werden ...

Ein Riesenproblem sehe ich auch bzgl. Itanium auch in der Programm-Entwicklungsumgebung.
Zur Erstinstallation kann man den Itanium-Server ja verwenden, aber wie testet man Programmänderungen ?

Sein Platz wird wohl eine RISC-CPU, für begrenzte Anwendungsfälle.
Ob der Chip-Gigant Intel sich mit dieser Nischenaufgabe beschäftigt, ist aber fraglich.
Man sollte den Itanium und den Alpha-Trupp auslagern, einige Jahre finanziell stützen und dann müßte die Kiste, nur noch in Intel-Anlagen gefertigt, sich am Markt behaupten.


Schon 2004 wird aber ein x86-64 Xeon mit rund 3.5 GHz wohl in vielen Bereichen die heutigen Itaniumsystem ausstechen, ebenso natürlich die schnellsten Opterone.
Der PowerPC hats ja schon diese Woche gepackt.
Schlecht fürs Image/Marketing.
 

Treverer

Grand Admiral Special
★ Themenstarter ★
Mitglied seit
23.07.2001
Beiträge
3.208
Renomée
107
Standort
Trier
  • SIMAP Race
  • QMC Race
so, ich möchte mal wieder ansetzen mit einer zusammenfassung, die ein paar dinge auf den punkt bringt. natürlich nur meine 2cent...

intel folgt also amds spuren und bringt nun x86-64. und zwar voll kompatibel zu amd. das heißt zuallererst einmal, daß alle sich geirrt haben, die dies für unmöglich hielten. der druck auf intel und dell muß also ernorm gewesen sein. finaziell ist er es nicht - siehe gewinne. aber anscheinend technologisch. so wie ich es bereits im ersten post sagte, ist der aufsprung auf den amd64 zug die reißleine, die halt bisher versucht wurde zu vermeiden. intel sah, daß sie dem hammer prozzies nichts entgegen setzen konnten. beweis: wäre der prescott nicht so ein debakel, dann hätte es den jetzt vollzogenen schwenk nicht gegeben. würde der prescott dieses jahr noch locker auf 4ghz kommen, ohne so einen stromhunger zu habe wie jetzt, dann hätte es solch einen 17.2.2004 nicht gegeben. es ist die reißleine - und marketing rauchbombe zugleich. wieso?

wenn ich sage, intel kann dem hammer nichts entgegen setzten, dann wissen wir hier alle, daß der grund ja nicht die 64bit sind, sondern vielmehr soi, memory controller, hypertransport. D A S sind die gründe für den erfolg des hammers bisher und für die zukunft auch, wie ich versuche zu zeigen. warum also sollte intel dann amd64 einführen, wenn es doch gar nichts bringt, wenn der erfolg amds auf anderen gebieten ruht? nun, als schwächeres argument ist image bzw. marketing zu nennen: der normale user weiß ja nicht, daß es nicht die 64bit fähigkeit ist. wann immer also opteron/athlon64 eine prescott in den hintern tritt denkt sich der normale mensch (als leser normaler hardwaretester, die eben auch teilweise zu billig denken), es liegt an 64bit (für diese vereinfachung gibt es unzählige beispiele). dieses argument zeigt auch erneut, wie schlau der weg der amd-techniker war, nicht nur einfach 64bit ranzuflanschen, sondern dies so zu machen, daß so gut wie immer mehr leistung dabei heraus kommt (zusätzliche register) - damit das image stimmt.

doch nun zu dem wichtigeren grund, warum intel den 64bit pfad geht, obwohl es ihnen eigentlich nichts bringt (warum nicht, dazu später mehr): der grund ist windows64. eigentlich finde ich ist jedes wort überflüssig, da es so offensichtlich ist. MS bringt ein neues os, welches noch besser, schneller, bunter, geiler, lustiger, erregender ist - kurz: das jeder haben will. und es läuft nur auf amd prozzies? sorry, sagt der user, das ist mir doch wurscht - ich kaufe einen pc mit betriebssystem, egal ob da intel drin ist oder nicht. der user kauft ja sogar nicht mal mehr einen pc - er kauft windows. auch nicht wegen MS - sondern wegen SPIELE, VIDEO, SEX - kurz: SPAß (man da hatte ich doch schon mal ein posting zu? thema fortschritt - warum? *grübel* ich muß lernen, wie bokill zu arbeiten...). wenn linux es bietet - okay. wenns auf einem apple läuft - okay. amd oder intel prozessor - egal. doch genau das wäre für intel veheerend. schlim genug, daß sie technisch kaum hinterherkommen - aber ein os, welches jeder käufer will anstatt das alte doofe windows xp -, welches nicht mehr auf ihren prozzies läuft wäre der einbruch gewesen. ist klar, was ich meine, denke ich...bei soviel worten :-)

weg wieder von der motivlage zur folgeanalyse...

jemand schrieb, es sei gut und schlecht zugleich für amd. schlecht, weil das alleinstellungsmerkmal jetzt fehlt. ist klar, was er meint - aber dennoch ist es natürlich gerade gut, daß amd64 keine alleinstellungsmerkmal mehr ist. sonst hätte amd den weg genommen wie z.b. apple, die heute nur nicht den markt beherrschen, weil sie das clonen gekillt haben. ich will es klar sagen:

DURCH INTELS SCHRITT IST x86 FÜR DIE NÄCHSTEN ZWANZIG JAHRE DOMINANT!!!

vielleicht noch länger, wer weiß. jedenfalls ist damit auch amds zukunft gerettet. deswegen knallten gestern die sektkorken bei ihnen.

wenn analüsten (geiles wort, hört sich an wie das wort "kinderschänder" :-) ) meinen, es gab platz zwischen ia32 und itanium (oder auch anderen 64bittern), dann sollte man das wirklich biologisch sehen: da war eine nische, die unbesetzt war. das dumme ist hier aber: mit dem schritt von intel wird aus dem nischenplatz der standard; biologisch: die neue spezies breitet sich aus. widerstand ist zwecklos - sie werden assimiliert...

der itanium ist zum nischenprodukt geworden - und wenn er da nicht rauskommt, dann ist er bald tot, weil ihn andere (z.b. ibm) an die wand drücken werden (wegen technologischen rückschritts).

nun gut, intel und amd werden also den pc (windows) markt weiter gemeinsam bedienen, weil intel das feld nicht amd überlassen wollte. also alles beim alten, wie seit 486er zeiten? nein, im gegenteil.

amd läuft nicht mehr hinterher, sondern intel. über ein jahr rückschritt sind enorm. reißleine heißt ja auch immer probleme, verwerfungen, ärger - alles intern und wir bekommen wenig davon mit. intel bleibt nun zwar kunden-kompatibel - aber damit bieten sie immer noch nicht die l eistung wie sie amd bietet. die xeons sollen zwar schnell 64bit-fähig werden, aber beim prescott nochmals ein halbes jahr warten macht es nicht besser. warum eigentlich warten? etwa, weil x86-64 code beim prescott den ipc erhöht und er bei gleichen takt noch mehr strom frißt? oder ist x64-64 code bei den intel prozessoren nicht so effektiv besser als bei amd - z.b. wegen hyperthreading? ich denke, niemand von uns hier erwartet, daß intel mit 64bit code aufholt, was sie bei 32bit nicht schaffen. d.h. aber, daß amd leistungsmäßig immer noch mehr davon profitiert, wenn 64bit software rauskommt, als intel davon vorteile hat.

anders, zusammenfassend ausgedrückt: amd hat gestern nur gewonnen, intel dagegen nur schadensbegrenzung betrieben.
 

rkinet

Grand Admiral Special
Mitglied seit
11.12.2003
Beiträge
9.066
Renomée
58
Standort
Weinheim/ Bergstr.
Glaube der Hauptfehler bei Intel war Architektur und GHz, statt kompatibles Multi-Core.

Wenn man, ab 65 nm ? / 45 nm ? , viele CPU-Kerne parallel fertigen kann, verlieren GHz und Architektur an Bedeutung.


IBM machts beim PowerPC (und XBOX2?) schon vor, Intel plant es für den Itanium.

Erst wenn diese Dinger aber wirklich preiswert sind, werden sie sich durchsetzen.
Der PowerPC and AMD haben das Zeug dazu, der Itanium aber nicht.
 

Treverer

Grand Admiral Special
★ Themenstarter ★
Mitglied seit
23.07.2001
Beiträge
3.208
Renomée
107
Standort
Trier
  • SIMAP Race
  • QMC Race
Schon 2004 wird aber ein x86-64 Xeon mit rund 3.5 GHz wohl in vielen Bereichen die heutigen Itaniumsystem ausstechen, ebenso natürlich die schnellsten Opterone.
Der PowerPC hats ja schon diese Woche gepackt.
Schlecht fürs Image/Marketing. [/B]

???

du meinst doch nicht, die xeon system würden die opterons ausstechen, sondern die opterons die itaniums? deutsch schwere sprache...
 

Bokill

Gesperrt
Mitglied seit
18.01.2002
Beiträge
5.689
Renomée
60
Standort
Bremen
@Treverer

Gute Leistung! Deswegen mag ich ja P3D... hier ist eine echte Ideenschmiede ...

Auch das Fazit, dass X86 vermutlich für die nächsten 20 Jahre sicher am Markt bleibt ist einfach schlicht bestechend!

Viele mögen x86 hassen, aber intel hat sich selber nicht an sein Mantra gehalten ... Die Geheiligte Kompatibelität

x86 hat dazu einen ganz hintertückischen Vorteil gegenüber allen bisherigen Instruktionssätzen, und da zitiere ich "zeckensack" aus dem Forum 3D Center

...
Ein großer Vorteil von x86-Code ist die variable Instruktionslänge, der Code ist dadurch sehr kompakt und spart somit Bandbreite und Cache-Größe.
Der offensichtliche Nachteil ist die Notwendigkeit zur Dekodierung, das Silizium dafür ist allerdings bereits in den Prozessoren vorhanden, womit das Problem als gelöst betrachtet werden kann.
...
Man kann x86-Code mit gutem Gewissen als "transparente Code-Kompression"
...
Im Thread 'nativen' x86 Code

Die eine Überlegung für den CISC Instruktionssatz war ja möglichst geizig mit Speicher umzugehen. Während RISC definierte meist gleiche Befehlslängen hat (auch EPIC ). CISC ist sehr variabel. AMD hat diesen AMD64 Instruktionssatz nicht nur erweitert, sondern auch entmistet (eine bisher unbeachtete Kleinigkeit). CISC AMD64 ist deswegen etwas RISC-ähnlicher geworden. Die Decodereinheit für AMD64 ist daher langfristig tendenziell noch leistungsfähiger...

Ich spinne mal...
Wenn irgendwann der Markt zu fast 100% AMD64 verwendet, dann halte ich es für denkbar , dass die alte Kompatibelität für 32 Bit aufgegeben wird.
Erste dezente Bemühungen (WoW64) sind ja zu erkennen. Die herkömmliche FPU-Einheit soll langfristig durch SSE ersetzt werden... da sind intern bei AMD bestimmt langfristige Überlegungen gemacht worden ;)

um einen alten Spruch der c`t mal aufzuwärmen... wer Neues schafft, muss auch Brücken da zu bauen (vielfacher c`t Kommentar zum Microchanneldesaster von IBM).
...
Aber was geschieht wenn das Neue Standard ist? Dann können doch die alten Brücken eingerissen werden, da die doch eh Niemand mehr beschreitet?!

Gedenkminute für Gate A20 und andere "Kleinigkeiten"

Nun den Itani(c)um schreibe ich persönlich nicht ganz ab, die Frage ist:
"Wie viel ist intel bereit da noch weiter Geld darin zu versenken? "
Für Spezialanwendungen hat EPIC seine Berechtigung, in abgeschlossenen Segmenten auch (HP-Drucker). Is ja auch nicht das erste Mal, das aus einem geplanten Konkurrentenkiller eine Low-Budget CPU wurde. Aber selbst bis dahin muss der Itani(c)um noch einen langen Weg gehen.

Aus Marketingtechnischen Gründen dürfen sie gar nicht den Itani(c)um schnell abschreiben. Dies schädigt den Ruf von Intel nachhaltig... denn ein ungeschriebenes Gesetz ist ja auch, dass Intel auch antike Hardware lange noch mit Ersatz beliefern kann.

Intel hat nun diverse Kröten geschluckt, aber dies waren noch lange nicht alle Kröten. Für mich brennt sich immer mehr die Frage ein, wie Intel sich die Zukunft der Busse/Systemverbindungen vorstellt. HTr (Artikel) (P3D Newsmeldungen Artikel 1. 2. ) zeigt immer mehr weitere Defizite Intels. Und deswegen ist die Analyse von Treverer gar nicht hoch genug einzuschätzen.

Ein Mysterium ist mir immer noch die verzögerte angekündigte Markteinführung des Xeon-Prescotts mit eingeschlteter AMD64 Funktionalität. So treiben sie die Kundschaft förmlich zu AMD?! Könnte aber auch eine ganz perfide Methode sein AMD einen schlechten Ruf zuzuschanzen. Frei nach dem Motto: "Nette Technologie aber liefern können sie nicht".

Mal schauen wer in einem Jahr bei intel noch den Kopf auf dem Hals trägt.

MFG Bokill
 
Zuletzt bearbeitet:
Oben Unten