CELL offiziell vorgestellt: ready for 4 GHz !?

rkinet

Grand Admiral Special
Mitglied seit
11.12.2003
Beiträge
9.066
Renomée
58
Standort
Weinheim/ Bergstr.
http://www.heise.de/newsticker/meldung/56137

Damit wird x86-64 nicht überflüssig, aber eine neue Performance-Dimension ist im Anmarsch.


0


aus: http://www.heise.de/newsticker/meldung/56139


> 4 GHz
Luftkühlung
// "innerhalb üblicher thermaler Bedingungen".

30 Watt !? max.
http://www.tecchannel.de/news/hardware/19355/index.html (aktuell Seite 2 des Beitrages)


aus http://golem.de/0502/36149.html

Die acht "synergetischen Prozessorkerne" (SPUs) verfügen jeweils über ein 128-Bit-Register mit 128 Einträgen und 256 KByte lokalen Speicher.
Hinzu kommt ein 64-Bit-Kern auf Basis der Power-Architektur mit VMX und einem Dual-Thread-SMT, ähnlich Intels HyperThreading.
Insgesamt verfügt der Chip dabei über 2,5 MByte Cache, davon entfallen 512 KByte auf den L2-Cache und 8 x 256 KByte auf die SPUs


Ist in 90nm recht schick (s. Foto), aber für Massenfertigung eher ein SOI-65nm Produkt mit (von mit geschätzt) 100-130 mm2. (IBM hat erst kürzlich ein kompaktes 65nm SRAM Design vorgestellt, der Cache wird also nicht allzu groß).


Cell_Arch.gif



http://www.blachford.info/computer/Cells/Cell1.html

Eckdaten der SOI-65nm Ausführung:
4,6 GHz
1,3 V
85 Grad DIE Temperatur (mit Kühler)

---

http://www.eetimes.com/semi/news/sh...32AED42QSNDBGCKH0CJUMEKJVN?articleID=59301581

> 4 GHz bestätigt, sowie 9 Cores = 1* CPU und 8 Synergistic Processor Element (SPE)

Im Prinzip also einen schnelle CPU mit Hochleistungs Co-Units.


-------
http://www.eetimes.com/semi/news/showArticle.jhtml?articleID=59301616

The Cell processor from IBM, Sony and Toshiba incorporates the XDR memory and FlexIO interface solutions, from Rambus Inc. a developer of chip interface products and services, Rambus said Monday (Feb. 7).

The memory and processor bus interfaces designed by Rambus provide the Cell processor with an aggregate processor I/O bandwidth of approximately 100 gigabytes-per-second, Rambus said.

nähers am 9. Februar von Rambus ...

-----------
http://marketwatch-cnet.com.com/Pla...e=pt&part=marketwatch-cnet&tag=feed&subj=news

cnet
4 bis 4,6 GHz
256 Gigaflops
aber Closer to 100 GFLOPs in normal usage http://www.blachford.info/computer/Cells/Cell6.html

Zur Thermik gibt es noch keinen Angaben. Aber IBM fährt nicht so hoch und die PS3 wird sicherlich nicht einen WaKü haben. Tippe mal auf Desktop-'Celeron'-Niveau aller Cells der PS3 bei allerdings 100-facher Performance.


36 'Cores' in der PS3 ? (4* CPU, 32* SPUs)

oder 3+ CPU, 1* nvidia, 24* SPUs ? mein Tip

Cell_PS3.gif
 
Zuletzt bearbeitet:
Heh...ich find das immer witzig, wenn ich so Sachen
wie 'x mal schneller als x86-CPUs' lese. Dabei werden
mal wieder Äpfel mit Birnen verglichen.

Sicher, der Cell ist'n hochgezüchtetes Stück Silizium,
und in den für ihn zugschnittenen Aufgabengebieten halt
hochspezialisiert und entsprechend schnell.

Abääär: Auch jede moderne Grafikkarte hat, wenn man
es so sieht, die x-fache Rechenleistung einer x86-CPU.
Kommt halt immer nur auf das Anwendungsgebiet an.

-A
 
Original geschrieben von Anonymous
Heh...ich find das immer witzig, wenn ich so Sachen
wie 'x mal schneller als x86-CPUs' lese. Dabei werden
mal wieder Äpfel mit Birnen verglichen.

Sicher, der Cell ist'n hochgezüchtetes Stück Silizium,
und in den für ihn zugschnittenen Aufgabengebieten halt
hochspezialisiert und entsprechend schnell.

Abääär: Auch jede moderne Grafikkarte hat, wenn man
es so sieht, die x-fache Rechenleistung einer x86-CPU.
Kommt halt immer nur auf das Anwendungsgebiet an.

-A


wo er recht hat, hat er recht.....
 
Mit ein paar erklärenden Worten wäre ich zufrieden gewesen. Der RDF-Primer und RDF-Syntax von W3C nehmen meine Zeit ganz gut in Anspruch :-)

MfG
 
Cell_Stream.gif


Eine der Anwendungen.
Im Prinzip werden rechenintensive Aufgaben einfach an die SPU's intelligent verteilt.
Was eine Graka letzlich auch ähnlich, aber starrer erledigt.
Und auch bei ca. 1/10 an max. Takt.

Wohl die deutlichste Schwäche bei x86-64 heute - hier ist Intels Blockade gegenüber einer besseren SSE wg. IA64-Promotion wohl endgültig nicht mehr zu halten.
Ich halte aber x86-64 prinzipiell hier entsprechend erweiterbar, wenn auch Taktraten um 4 GHz doch der SOI-Gruppe (als IBM, Sony, Toshiba und AMD) vorbehalten bleibt.
 
Kannst du (rkinet) nicht einfach mal irgendwas klar und deutlich darlegen als auf irgendwelche Marketingsachen oder sonstige Riesentexte zu linken???

Nach deinem Schreibaufwand um das Thema müsstest du ja Experte sein...


@Crashman

Der Cell ist sozusagen einfach ein Numbercruncher. Sprich Cell kann nicht wie x86 CPUs extrem variierende Berechnungen durchführen (wie zB. bei Office Progs und Spielen nötig), sondern nur vergleichsweise sehr einfache Berechnungen - das aber mit ziemlicher Geschwindigkeit.

Die CPU im Cell führt praktisch all die variablen Teile aus, und entscheidet welche Daten berechnet werden müssen. Das wird dann in die SPUs geladen und die rechnen das durch.


Im Endeffekt ist das nicht so verschieden von einer Vektor-CPU. Die kann zwar hunderte von Berechnungen auf einmal durchführen, aber wenn eben die eine Berechnung vom Ergebnis der vorherigen abhängt, nutzt das garnix (weil man das ja nicht gleichzeitig rechnen kann).
Bei wissenschaftlichen Berechnungen ist das selten der Fall, im Desktop und Server Bereich dagegen sehr sehr oft.
 
Original geschrieben von i_hasser
Kannst du (rkinet) nicht einfach mal irgendwas klar und deutlich darlegen als auf irgendwelche Marketingsachen oder sonstige Riesentexte zu linken???

Wer bessere kennt, bitte melden.

Die PC-Geschichte ist voller 'Marketingsachen':
- 32 Bit beim 80386
- Einführung von Caches
- ISA, PCI, AGP
- MMX, SSE
- SDRAM, DDR
- 3D-Beschleuniger

alles so Zeug, was nie an Bedeutung gewann 8)


Wie der 'Cell' sich in der Praxis bewährt, muss man tatsächlich sehen.
Wie bei MMX bis 3D-Hardware hat sich das 'Numbercruncher' Prinzip aber bewährt.

Man stelle sich einen 2-3 GHz x86 Core vor nur mit FPU und 2D-Graka.
Da könnten wir Spiele mit Gitternetz-Grafik erleben und selbst die Bilddekompression im Internet würde die CPU bis zum Anschlag beanspruchen.


Für mich sieht der 'Celle' wie der Beginn der neuen CPU-Designs aus.
 
Das ist schlicht Quatsch mit Soße, Cell ist für Numbercrunching gut geeignet, aber von der Performance her keine neue Generation. Wie schon gesagt, der SX8 ist ein harter Brocken der in punkto Rechenleistung so einiges auf die Wage bringt.

Und was nutzt es dem Desktopanwender? NIX!

Abgesehen davon scheinst du ja eine Technik nur anhand des Marketings zu beurteilen, anders kann ich mir die Liste die du gebracht hast nicht erklären. Wenn da ein wenig mehr technisches Wissen wäre, könntest du dir den Nutzen von PCI gegenüber ISA, oder von Caches allgemein auch sehr leicht selbst erklären, und du würdest auch sehr schnell sehen, dass der Cell ein guter Numbercruncher aber nicht mehr ist!

Übrigens halte ich es durchaus für möglich, dass die Graka in meinem Rechner den Cell Leistungsmäßig zersägt - zumindest bei den Sachen die die Graka so berechnen muss.
 
Original geschrieben von i_hasser
Kannst du (rkinet) nicht einfach mal irgendwas klar und deutlich darlegen als auf irgendwelche Marketingsachen oder sonstige Riesentexte zu linken???

Dazu müsste er es ja auch verstehen ;D ;D ;D
 
Original geschrieben von i_hasser
Und was nutzt es dem Desktopanwender? NIX!

'Longhorn' ...

Microsoft plant da Features, die auch nach 'Numbercrunching' schreien.


Zu Cell:
Mit min. 1* 4 GHz PowerCore auf dem Chip, per 25,6 GByte/s mit dem RAM verbunden, dürften alle Routineaufgaben (OS, Datenbank, Internet, Word, etc.) erst einmal abzudecken sein.
Nur, es gilt DVD bzw. HDTV zu decodieren und gleichzeitig zu bearbeiten (s. oben http://www.blachford.info/computer/Cells/Cell_Stream.gif). Und vieles andere mehr ...

Cell ist nicht Marketing, sondern die Technologie von 2006/7.
Intel & AMD wollen hier per Multi-Core x86-64, vielleicht erweiterter SSE o.ä. kontern.


Zur GraKa:
8* 4 GHz inside ?
256k local cache ?
ca. 30 Watt ?
Die heutigen Grakas sind hochleistungsfähig und sicherlich auch ein Vorbild für einige (SPE) Cell-Details gewesen.
Nur, der Cell ist technisch deutlich weiter entwickelt.


Was wohl einige hier stört ist die Wiederaufnahme der 'Performance-Ralley'.
Die 'Endzeitstimmung' bzgl. PC-Technik hat zwar Intel per 4 GHz Stop ausgelöst, aber auch in den letzen Wochen bereits wieder relativiert.
Also, es geht wieder wie gewohnt weiter.
 
Muss ich mal wieder i_hasser vollkommen recht geben.

Wer glaubt, dass sich der Cell aus der masse der Chips in jedem Bereich deutlich von anderen aktuellen Chips absetzen kann, der glaubt wohl auch an die Quadratur des Kreises.
 
Original geschrieben von rkinet
'Longhorn' ...

Microsoft plant da Features, die auch nach 'Numbercrunching' schreien.

Totaler Quatsch, weist du was für einen Aufwand es ist sowas mit SSE2 umzusetzen? Da muss man schon Handstände machen damit da 4 parallele Rechnungen zustande kommen, und selbst da kann man die Hälfte verwerfen.

Und jetzt meinst du allen ernstes, dass Longhorn Features haben wird die bei weitem mehr Parallelität bieten als das bisherige? Denk nochmal ganz genau nach...

Zu Cell:
Mit min. 1* 4 GHz PowerCore auf dem Chip, per 25,6 GByte/s mit dem RAM verbunden, dürften alle Routineaufgaben (OS, Datenbank, Internet, Word, etc.) erst einmal abzudecken sein.

Wieder Quatsch, bei den OS-typischen Sachen zersägt mein 2.2GHz K7 den Cell.
Weist du eigentlich was für Riesenkonstruktionen aktuelle x86er haben die sich Branch Prediction nennen? Die kommen auf Vorhersagegenauigkeiten von > 98% - bei einer Branch Penalty (Takte, die verloren sind wenn ein Sprung falsch vorhergesagt wird) von PI*Daumen 20 Takten sieht der Cell da extrem alt aus.
Dazu kommt noch RegRenaming etc. pp. usw. usf. - der Vergleich Cell vs. K8 im Desktop Bereich dürfte ungefähr auf den Vergleich 486 vs. K8 hinauslaufen - chancenlos für den Cell, auch bei doppeltem Takt.

Nur, es gilt DVD bzw. HDTV zu decodieren und gleichzeitig zu bearbeiten (s. oben http://www.blachford.info/computer/Cells/Cell_Stream.gif). Und vieles andere mehr ...

Und wieder völlig überzogen, dafür reicht SSE2 komplett aus. Schon 256Bit Register wären dafür überzogen, und für aktuelle GHz-Boliden ist HDTV sowieso kein Problem.
Mehr als 128Bit parallel wären hier auch wieder Verschwendung, weil da einfach zu viele Faktoren die Rechnungen kurzfristig beeinflussen.

Wer wirklich professionell Videobearbeitung machen will kauft sich einen Encoder-Chip für MPEG4/DivX. Billiger als jeder Cell und trotzdem genauso Leistungsfähig in diesen Bereichen.

Cell ist nicht Marketing, sondern die Technologie von 2006/7.

Mag ja sein, aber nicht für den Desktop! Mit ein bisschen Ahnung kann man sich das ziemlich schnell zusammenreimen.

Intel & AMD wollen hier per Multi-Core x86-64, vielleicht erweiterter SSE o.ä. kontern.

Dual-Core geht in eine ähnliche Richtung, aber das wars auch schon. Für x86 Anwendungsbereiche ist Cell vollkommen ungeeignet (glaub ich sag das jetzt zum 4. mal), und ein 256Bit SSE hätte auch kaum Anwendungsmöglichkeiten.


Zur GraKa:
8* 4 GHz inside ?
256k local cache ?
ca. 30 Watt ?
Die heutigen Grakas sind hochleistungsfähig und sicherlich auch ein Vorbild für einige (SPE) Cell-Details gewesen.
Nur, der Cell ist technisch deutlich weiter entwickelt.

Hör doch mal auf so einen Blödsinn zu verzapfen!

Grakas sind vollkommen anders konstruiert als Cell - viel spezieller und angewandter. Im Gegensatz zu einer GPU ist Cell eine General Purpose CPU!

Ich hab gerade keine aktuellen Daten im Kopf, die DeltaChrom2 schafft 500MTex/s. Pro Texel sind mindestens 8 Float Operationen nötig, das macht so schon 2 GFlop. Ich versteh von GPUs nicht sooo viel weil ich mich damit einfach nicht mehr beschäftigt hab, aber ich kann dir mit ziemlicher Sicherheit sagen, dass da noch deutlich mehr gerechnet wird - da dürften locker 50 bis 100GFlop zusammenkommen.


Was wohl einige hier stört ist die Wiederaufnahme der 'Performance-Ralley'.

Gegen Cell beim Numbercrunching hat ein x86er nicht den Hauch einer Chance. Gegen x86er beim Desktop/Server Einsatz hat Cell keine Chance. Für mich sind das geklärte Fronten.

Die 'Endzeitstimmung' bzgl. PC-Technik hat zwar Intel per 4 GHz Stop ausgelöst, aber auch in den letzen Wochen bereits wieder relativiert.
Also, es geht wieder wie gewohnt weiter.

Kann nicht irgendjemand mal deinen Beiträgeschnitt auf 1/Tag beschränken? Ich hab keine Lust für jeden deiner Beiträge so eine Richtigstellung zu schreiben. 1/Tag ist denke ich ein halbwegs machbarer Aufwand.


E:

Kann Sledge nur zustimmen, du erzählst hier teilweise einen Nonsense, das tut schon beim Lesen weh.
 
Zuletzt bearbeitet:
Original geschrieben von i_hasser
Totaler Quatsch, weist du was für einen Aufwand es ist sowas mit SSE2 umzusetzen? Da muss man schon Handstände machen damit da 4 parallele Rechnungen zustande kommen, und selbst da kann man die Hälfte verwerfen.

Und jetzt meinst du allen ernstes, dass Longhorn Features haben wird die bei weitem mehr Parallelität bieten als das bisherige? Denk nochmal ganz genau nach...

Das ist schon bei vielen Numbercrunching-Aufgaben sehr schwierig (habe da schon meine Erfahrungen mit SETI). Für solche GeneralPurpose-Aufgaben ist das häufig unmöglich, weil das Problem selber schon den Grad der Parallelisierung begrenzt. Ohne Nebenläufigkeit kein Parallelisierung!


Wieder Quatsch, bei den OS-typischen Sachen zersägt mein 2.2GHz K7 den Cell.
Weist du eigentlich was für Riesenkonstruktionen aktuelle x86er haben die sich Branch Prediction nennen? Die kommen auf Vorhersagegenauigkeiten von > 98% - bei einer Branch Penalty (Takte, die verloren sind wenn ein Sprung falsch vorhergesagt wird) von PI*Daumen 20 Takten sieht der Cell da extrem alt aus.
Dazu kommt noch RegRenaming etc. pp. usw. usf. - der Vergleich Cell vs. K8 im Desktop Bereich dürfte ungefähr auf den Vergleich 486 vs. K8 hinauslaufen - chancenlos für den Cell, auch bei doppeltem Takt.

Ich würde erst gar nicht versuchen x86 mit dem Cell zu vergleichen. Die sind für vollkommen unterschiedliche Aufgaben ausgelegt.


Und wieder völlig überzogen, dafür reicht SSE2 komplett aus. Schon 256Bit Register wären dafür überzogen, und für aktuelle GHz-Boliden ist HDTV sowieso kein Problem.
Mehr als 128Bit parallel wären hier auch wieder Verschwendung, weil da einfach zu viele Faktoren die Rechnungen kurzfristig beeinflussen.

Naja, aber für Echtzeit muss es dann schon sein. ;D


Wer wirklich professionell Videobearbeitung machen will kauft sich einen Encoder-Chip für MPEG4/DivX. Billiger als jeder Cell und trotzdem genauso Leistungsfähig in diesen Bereichen.

Wobei auch das nicht unbedingt notwendig ist. Für einen Großteil der anfallenden Aufgaben sind aktuelle PCs vollkommen ausreichend. Echtzeitvorschau wäre vielleicht ein Kriterium.


Ich hab gerade keine aktuellen Daten im Kopf, die DeltaChrom2 schafft 500MTex/s. Pro Texel sind mindestens 8 Float Operationen nötig, das macht so schon 2 GFlop. Ich versteh von GPUs nicht sooo viel weil ich mich damit einfach nicht mehr beschäftigt hab, aber ich kann dir mit ziemlicher Sicherheit sagen, dass da noch deutlich mehr gerechnet wird - da dürften locker 50 bis 100GFlop zusammenkommen.

Kommt noch nicht ganz hin. Der NV40 (also aus der 6000er Serie von NVidia) schafft so ca. 40GFlop/s.


Kann nicht irgendjemand mal deinen Beiträgeschnitt auf 1/Tag beschränken? Ich hab keine Lust für jeden deiner Beiträge so eine Richtigstellung zu schreiben. 1/Tag ist denke ich ein halbwegs machbarer Aufwand.

Dann mach es nicht. Das ist sowieso sinnlos. Für einen korrigierten Beitrag kommen zwei neue Dummfug-Postings hinzu, sowie die Unterstellung, dass du keine Ahnung hast.

Original geschrieben von mtb][sledgehammer
Wer glaubt, dass sich der Cell aus der masse der Chips in jedem Bereich deutlich von anderen aktuellen Chips absetzen kann, der glaubt wohl auch an die Quadratur des Kreises.

Wieso nicht? Die PS3 soll doch auch 1000mal schneller sein, als entsprechende PCs. :]
 
Zuletzt bearbeitet:
http://www.theregister.co.uk/2005/02/10/intel_65nm_cpus/

Also, ich bin schon einmal gespannt, was man 2006ff. über eure Kritik sagen wird.

Intel hat die 65nm Prototypen jetzt am laufen.
IBM wird mit der Produktion zum Wechsel 2005/6 mit der Fertigung beginnen.
Der 'Cell' ist weder von Sony noch IBM als Hochpreisprodukt geplant.
Noch unbestätigte Gerüchte sprechen ja von mehreren Cell bei einer PS3.

Aber auch MS wird ja mit 3 PowerPC Kernen für die XBox2 gehandelt - wohl in gleicher Taktrate wie der Cell (ist ja die gleiche Fertigungs-Fab)

Und der Power (G5 ?) ist bei gleichem Takt einem P-M oder einem K8 grob ebenbürdig.

Wie schon oben aufgeführt - der Cell zeigt aus heutiger Sicht eine neue CPU-Welt, die mit 65 nm oder 45nm aber preiswert realisierbar sind.
Überflüssige Transistoren gibt es nur noch, wenn der Strombedarf darunter leiden würde. Nur hier steckt ja schon beim Cell einiges an Gegenmaßnahmen drin.


Zu x86-64 und mögliche SPE sieht es zunächst problematisch aus.
Nur, in Erweiterung der Virtualisierung, wären eben Zusatzeinheiten nur unter bestimmten OS aktiv denkbar. Aber dies ist Spekulation.

Was real ist, ist der Cell.
Was fast real ist, ist eine ähnlich aufwendig gestaltete Unit für die XBox2 aus der IBM-Ferigung.
Was off. ist, sind massive Multicore Projekte von Intel für den Massenmarkt und weit fortgeschrittene 65nm Fertigungsentwicklungen.


Sorry, die heutigen CPUs sind absehbar bald OUT, egal ob sie mit heutigen OS und Anwendungen völlig ausreichend sind.
Nachdem keiner meiner Kritiker bei IBM, Sony, Toshiba, Intel, AMD oder Microsoft in der Entwicklung sitzt erwarte ich hier realistische Kritiken.
Was technisch zu aufwendig ist entscheiden diese Firmen - nicht wir.

Und wenn die Multicore im Multi-GHz Bereich für wenige Dutzend Dollar fertigen und liefern wollen, dann machen die es auch. Egal, was wir hier für richtig halten.
Und der Cell wird definitiv nicht in einer $1500 PS3, sondern zu 99,9$ Teil einer $150-$200 PS3 werden. Und Sony/Toshiba bauen die Dinger für TV-Geräte wo sie kalkulatorisch auch nur wenige Dutzend Dollar kosten dürfen/werden - bei vollem Funktionsumfang und Taktrate.
Und, in einigen Jahren /45nm Fertigung wird der Cell sicherlich der 'Z80' der Audio/Video Consumerwelt der unteren Dollar-Klasse. Dafür sorgen schon Sony, Toshiba und ähnliche Hersteller.


P.S. Wenn Ihr Links beschleift, die eine andere Planung der Chip-Giganten ergeben, werde ich mich dieser selbstverständlich unterwerfen und mich korrigieren.
 
Zuletzt bearbeitet:
> Also, ich bin schon einmal gespannt, was man 2006ff. über eure Kritik sagen wird.

... das sie richtig war *lol*

> Die heutigen Grakas sind hochleistungsfähig und sicherlich auch ein Vorbild für einige (SPE) Cell-Details gewesen.

Alleine das zeigt schon das du keine Ahnung hast. Cell ist z.B. absolut unterlegen wenn es in Richtung Pixelshader geht, da brauchst du einfach keine FP Power! Hier zählen Dinge wie LOD Lookups -- das ist z.B. mit der Cell-Struktur extrem aufwendig: Die Tabellen passen nicht in das Local Memory. D.h. bei jedem Zugriff musst du erst mal checken ob der Tabellen-Eintrag im Local Memory vorhanden ist. Wenn nicht => DMA Transfer vom Memory initiren, auf Memorytransfer warten, Verwaltungsinformationen updaten und dann erst zugreifen. Übrigens werden für einen solchen Transfer mindestens 4 Table-Lookups in diversen Speichertabellen notwendig, ganz abgesehen davon, dass nur das PE die DMA Engine direkt programieren kann.
 
Original geschrieben von HenryWince
Alleine das zeigt schon das du keine Ahnung hast.

Cell ist z.B. absolut unterlegen wenn es in Richtung Pixelshader geht, da brauchst du einfach keine FP Power!
Hier zählen Dinge wie LOD Lookups -- das ist z.B. mit der Cell-Struktur extrem aufwendig: Die Tabellen passen nicht in das Local Memory. D.h. bei jedem Zugriff musst du erst mal checken ob der Tabellen-Eintrag im Local Memory vorhanden ist.

Wenn nicht => DMA Transfer vom Memory initiren, auf Memorytransfer warten, Verwaltungsinformationen updaten und dann erst zugreifen. Übrigens werden für einen solchen Transfer mindestens 4 Table-Lookups in diversen Speichertabellen notwendig, ganz abgesehen davon, dass nur das PE die DMA Engine direkt programieren kann.

Ahnung und Zukunftsprognosen.
Da hat jeder genausoviel Ahnung - mit Zukunftsforchung ist noch keiner reich geworden

Cell erhält für 3D noch einen Grafikcore (bei PS3 von nvidia)
Der Chip muss nur 2D, sowie Audio perfekt beherrschen.

Sony hat gut $2 Milliarden in die Cell-Entwicklung gesteckt, wohl weitgehend Chipdesign. Die Fertigungtechnologie kommt von IBM.
Und $2 Milliarden, da waren sicherlich nicht 10 Diplomarbeiten und 20 Chipdesigner im Einsatz sondern ein riesiges Entwicklerteam.


Was mich so 'langsam' stört:
Der Cell ist keine Designstudie, sondern ein fertiges (bis auf den 65nm shrink) Verkaufsprodukt. Bis Mai'05 (http://www.golem.de/0502/36160.html) wird auch die Umsetzung in der PS3 und auch die XBox 2 (o. XBox 360) - wohl ebenso mit extremer Hardware - vorgestellt.
Das Cell-Design ist Fakt und ist nicht zu erwarten, daß der Cell Designfehler enthält, die die Taktleistung nur ineffektiv umsetzt.

@HenryWince, mich als 'ahnungslos' zu bezeichnen auf Basis einer Vermutung, daß Sony / IBM zig Milliarden Dollar zum Fenster herausgeworfen haben ist doch die Höhe !

Und, niemand wird gezwungen sich auch zukünftig neue, leistungsfähigere Computer zuzulegen.
 
Um mir ein bisschen Arbeit zu sparen nehm ich mal alles raus wozu sich schon jemand geäußert hat ;D.

Original geschrieben von rkinet
Intel hat die 65nm Prototypen jetzt am laufen.
IBM wird mit der Produktion zum Wechsel 2005/6 mit der Fertigung beginnen.
Der 'Cell' ist weder von Sony noch IBM als Hochpreisprodukt geplant.
Noch unbestätigte Gerüchte sprechen ja von mehreren Cell bei einer PS3.

Ja und? 1. hast du keine Ahnung was die Cell in der PS3 überhaupt machen werden (vielleicht kommt ja gar kein Cell als richtige CPU zum Einsatz?), und 2. laufen auch schon DualCores von AMD und Intel vom Band. 3. ist die Leistung der PS3 auch noch völlig unklar.

Aber auch MS wird ja mit 3 PowerPC Kernen für die XBox2 gehandelt - wohl in gleicher Taktrate wie der Cell (ist ja die gleiche Fertigungs-Fab)

Aha, und warum sollten die PowerPCs auf einmal 4GHz schaffen? Meinst du IBM hat bisher nur auf Sparflamme gearbeitet?

Ein bisschen logisches Denken und Fachwissen würde dir gut tun! Der PowerPC ist um Längen komplexer als der Kern vom Cell, den kannst du nicht mal eben auf 4GHz takten.

Und der Power (G5 ?) ist bei gleichem Takt einem P-M oder einem K8 grob ebenbürdig.

Nur leider gibts die nicht in der gleichen Taktrate, weil das Desing dafür zu komplex ist. x86 ist besser als viele denken, mit einigem Aufwand lässt sich da viel an Leistung rausholen.
IBM hat von der Leistung pro CPU Probleme da hinterherzukommen, brauchen sie aber auch garnicht - da werden einfach 8 PowerPC auf eine Platine gebacken und das wird dann als Modul verkauft, zersägt jeden x86er. Dummerweise nur bei speziellen Anwendungsbereichen, im Desktop Betrieb nutzt das nämlich garnix.


Wie schon oben aufgeführt - der Cell zeigt aus heutiger Sicht eine neue CPU-Welt, die mit 65 nm oder 45nm aber preiswert realisierbar sind.

So langsam beschleicht mich das Gefühl, dass du das mit Absicht machst. Ich hab geschrieben wieso das völlig fernab jeder Realität ist! Liest du dir die Sachen überhaupt durch die andere Member schreiben? Oder hast du dich mit deinen Marketing-Nebelkerzen inzwischen selbst so eingenebelt, dass du nix anderes mehr wahrnimmst?

Aber vielleicht bringt ja ständige Wiederholung was: Gegen einen x86er hat Cell keine Chance! In irgendwelchen Spielen oder beim Compilieren, oder Videobearbeitung, oder irgendwas anderem aus dem Desktop Bereich würde mein seit 1.5 Jahren laufender 2.2GHz K7 den Cell bügeln!

Ist dir nicht schonmal irgendwie aufgefallen, dass du dich auf keine Argumentation einlässt? Für mich ist das nur ein 'Fortschritt': Die moderne Art des Flames!

Überflüssige Transistoren gibt es nur noch, wenn der Strombedarf darunter leiden würde. Nur hier steckt ja schon beim Cell einiges an Gegenmaßnahmen drin.

Schön, bei anderen CPUs wohl nicht? Jaja, ich weis - alle CPU Schmieden von AMD bis Sun haben alle nur wertlose und veraltete CPUs gebaut, nur um in diesem einen Moment (Cell) eine totale Neuerung bringen zu können :].

Mal ehrlich, wenn du denkst der Cell wird so eine SuperwunderCPU, wieso haben AMD und Intel nicht jetzt schon alle Schotten dicht gemacht und verkauft? Jetzt stehen die Aktienkurse noch hoch, da würde es sich lohnen.

Wenn dein WunderCell (rein hypotetisch gesprochen -> Spinnermodus:ON) alles bisherige ablösen würde, liefe das im Endeffekt auf eine Schlacht um Marktanteile hinaus. Die würden AMD und Intel verlieren, die Kurse würden fallen und irgendwann würden beide pleite gehen - und zu Hungerlohnpreisen verkaufen müssen. (Spinnermodus:OFF)



Zu x86-64 und mögliche SPE sieht es zunächst problematisch aus.

Aha, und du, ohne einen funken technisches Wissen kannst das einfach so aus der Hüfte beurteilen? Sicher doch, und jetzt sag bloß du hast morgen leider keine Zeit in diesem Thread zu antworten, weil du dich mit dem CEO von AMD treffen musst?

Ich würde mir so eine Einschätzung nicht erlauben. Mit einem neuen CPU Desing kann man das sicher ziemlich problemlos integrieren, nur dauert das zulang. Wie es beim K8 und K9 aussieht - *noahnung*.

Nur, in Erweiterung der Virtualisierung, wären eben Zusatzeinheiten nur unter bestimmten OS aktiv denkbar. Aber dies ist Spekulation.

Ich hoffe doch, das bezog sich nicht nur auf diesen Absatz...


Was real ist, ist der Cell.

Jep, ein Rechenmonstrum das einzig und allein im parallelen Numbercrunching seine Stärken hat - da ist es eine Neuerung. Aber auch ein NEC SX8 bringt 16GFLOP auf die Wage. Und bei nicht wenigen Aufgaben werden so ein paar SX8 schneller als ein Cell sein, weil du nunmal schwer eine CPU mit 20'000 Pins basteln kannst - so brachial viele Pins müsste der Cell nämlich PI*Daumen haben um auf ähnliche Speichertransferraten wie 4 SX8 zu kommen.

Naja... wenn wir schon alle herumtrollen und uns SuperCPUs suchen, dann wähle ich den Efficeon. Mit der theoretischen Rechenleistung die der VLIW Kern auf die Wage bringt zersägt der nämlich wahllos jeden anderen x86er - auch bei den aktuell gültigen Taktverhältnissen.

Dumm nur, dass ein Großteil davon für CMS draufgeht, sonst spräche der Efficeon kein x86. Und der VLIW Dialekt vom Efficeon ist leider viel zu statisch - genau wie Cell.
Ich würd mal schätzen, dass der Efficeon im Endeffekt 1/2 bis 2/3 der Rechenleistung für CMS verpulvert - und dabei ist der VLIW Kern vom Efficeon noch eine vollwertige CPU, wogegen Cell eher eine VPU ist.

Bleiben von den 100 GFLOPS geschätztes Maximum in der Praxis also noch ungefähr 33 GFLOPS übrig. Nur ist der Efficeon Kern eben viel dynamischer als Cell...


Was fast real ist, ist eine ähnlich aufwendig gestaltete Unit für die XBox2 aus der IBM-Ferigung.

Jaja, sicher, normale PowerPC mit 4GHz *rofl*

Was off. ist, sind massive Multicore Projekte von Intel für den Massenmarkt und weit fortgeschrittene 65nm Fertigungsentwicklungen.

Noch so ein völlig überzogener Satz. Massives Multicore lohnt sich bei Intel nur sehr sehr begrenzt, weil die Leistung ziemlich schnell ziemlich stark einbricht.

Außerdem haben wir noch nichtmal DualCores. Selbst AMD kann kaum auf Multicore setzen, alles >2 ist da Verschwendung - so ein Operon läuft nunmal mit 1/4 der Speicherbandbreite (4) nicht mehr so schnell.


Sorry, die heutigen CPUs sind absehbar bald OUT, egal ob sie mit heutigen OS und Anwendungen völlig ausreichend sind.

*rofl*

Der kommt in meine Sig!

Nachdem keiner meiner Kritiker bei IBM, Sony, Toshiba, Intel, AMD oder Microsoft in der Entwicklung sitzt erwarte ich hier realistische Kritiken.

Aber fast jeder der Kritiker versteht eine Menge mehr von den technischen Hintergründen als du! Oder um es mal auf den Punkt zu bringen: Du hast keine Ahnung.

Was technisch zu aufwendig ist entscheiden diese Firmen - nicht wir.

Es geht nicht um technisch aufwändiges, sondern um die damit erzielbare Leistung. Sicher könnte man einen Cell oder einen SX8 in eine Destop Umgebung bauen, nur wäre eben mein 486er schneller.

Und wenn die Multicore im Multi-GHz Bereich für wenige Dutzend Dollar fertigen und liefern wollen, dann machen die es auch.

Und wenn denen die Gesetze von Marktwirtschaft im Wege stehen werden diese auf Antrag eben geändert, und wenn sich die Gesetze der Physik zu Wort melden werden diese eben mit irgendeiner Wundermaschiene umgangen? Sorry, aber dann wären wir schon auf dem Mars und würden 3 Sonnensysteme bevölkern.

Egal, was wir hier für richtig halten.
Und der Cell wird definitiv nicht in einer $1500 PS3, sondern zu 99,9$ Teil einer $150-$200 PS3 werden. Und Sony/Toshiba bauen die Dinger für TV-Geräte wo sie kalkulatorisch auch nur wenige Dutzend Dollar kosten dürfen/werden - bei vollem Funktionsumfang und Taktrate.

Mag ja alles sein, nur skaliert man solche Produkte selten zu hoch. Also baut eben keinen 2GHz K8 in einen DVD Recorder, weil der eh praktisch nie was zu tun hätte.

Ergo wird ein 2GHz K8 den Cell in einem TVTuner mit links zersägen. Und dabei sind fast alle Sachen die mit Video zu tun haben noch die parallelsten Rechenarbeiten die du finden kannst.

Und, in einigen Jahren /45nm Fertigung wird der Cell sicherlich der 'Z80' der Audio/Video Consumerwelt der unteren Dollar-Klasse. Dafür sorgen schon Sony, Toshiba und ähnliche Hersteller.

Also unqualifizierter geht es nicht! Das ist Schwachsinn³. Ein Z80 wird genommen weil es eine extremst einfache CPU ist, die für ihre Transistorzahl schon sehr sehr viel kann.

Selbst der vereinfachte Cell Kern ist dagegen das reinste Transistorgrab.


P.S. Wenn Ihr Links beschleift, die eine andere Planung der Chip-Giganten ergeben, werde ich mich dieser selbstverständlich unterwerfen und mich korrigieren.

Du gibst uns ja 1. nichtmal deine Links, und 2. würdest du dich sowieso nicht korrigieren, so ein Wort existiert in deinem Wortschatz garnicht.



Mal eine private Frage: Arbeitest du eigentlich bei irgend einer Marketingabteilung? Wenn nicht solltest du dich da schnellstens irgendwo bewerben, mometan scheint ja IBM dein großer Favorit zu sein. Du schaffst es nämlich wirklich den Leuten das Blaue vom Himmel zu versprechen.


Mir vergeht aber auch so langsam die Lust immer Romane zu schreiben, hatte aber auch nicht angenommen, dass du so verbohrt bist.
 
hui, ich hab jetzt nicht ganz alles gelesen (nur die hälfte von oben), aber ich stell mal ne ganz einfache Frage in den Raum:

wenn doch die Leistung des CELL so überragend ist

für was braucht ne PS3 eine 'so viel schnellere' CPU als ein Gamer-PC?

(bzw. CPU+GPU)

man bedenke:
AA features etc., wird ne PS3 auch sowas haben?

Auflösung: TV... 800x600, oder noch kleiner? oder bietet das dingens volle HDTV Auflösung? [1920x1080]

glaube eher nicht; und desshalb glaube ich, dass die Performance die schlussendlich aus dem Gerät (!) rauskommt nicht so überragend sein kann - auch wenn die CPU vielleicht mit noch so monströsen Zahlen aufwarten kann....
{=> alles doch nur Marketinggelaber}

cya

EDIT: PS: unerklärlich sind mir auch jene Leute die immer behaupten, Konsolen hätten bessere Grafikqualität. Wie wird diese bitte definiert?^^ ;D
(am besten noch, wenn die selben leute die Konsole über composite angeschlossen haben :] )
 
Zuletzt bearbeitet:
Der Cell für Durchblicker ;

http://www.realworldtech.com/page.cfm?ArticleID=RWT021005084318


Bem:
Ich kann ja auch nichts dafür, daß IBM eine neues Kapitel der CPU-Geschichte aufgeschlagen hat und die PS3 und auch XBox2 jeden PC 'alt' aussehen lassen.
Und ATI / nvidia Graka-Core beisteuern wollen, die wir vom PC nur im Highend Bereich kennen (nur eben optimiert bis HD-TV // in USA / Japan schon boomend).


Mein Vorschlag:
Beschwert euch auch mal bei IBM, Sony, Microsoft über diese 'unverschämten' Technologiesprünge. Sogar bei Intel könnte man sich angesichts 65nm und Multi-Core /ab 2006) beschweren. Natürlich auch bei AMD wg. Dual-Core, 65nm-Fab36, 90nm Chartered, Pazifica ...
ICH hab das Zeug nicht erfunden !
Aber ich kehre es nicht unter den Tisch oder nörgle darüber.


i_hasser:
Aha, und warum sollten die PowerPCs auf einmal 4GHz schaffen? Meinst du IBM hat bisher nur auf Sparflamme gearbeitet?
However, what is known is that the PPE processor core is a new core
that is fully compliant with the POWERPC instruction set,
the VMX instruction set extension inclusive.
Additionally, the PPE core is described as a two issue,
in-order, 64 bit processor that supports 2 way SMT.


(im gleichen Artikel: typ. ca. 4 GHz /1,1 V, OC bis 5,6 GHz/ 1,4 V gelungen)

Halt ne ordendliche CPU Ausstattung für 2006ff, oder ?


i_hasser:
Mal ehrlich, wenn du denkst der Cell wird so eine SuperwunderCPU, wieso haben AMD und Intel nicht jetzt schon alle Schotten dicht gemacht und verkauft? Jetzt stehen die Aktienkurse noch hoch, da würde es sich lohnen.
Wer sagt, daß Intel & AMD nicht ebensolche Performance im nächsten Jahr liefern wenn auch als Variante der x86-64 Architektur ?
Intel hat 10 Multi-Core Projekte lt. jüngtsen Berichten in Arbeit.
AMD hat schon ewig den K8-Core bis 5,0 GHz (Bits im Taktregister) definiert.

Wer leben seit einigen Jahren in einem Zustand des Verharrens bei den CPUs.
3 GHz Netburst gab es schon 2003, sonstige 2 GHz ebenso.
Jetzt werden eben die 3 Jahre in einer Stufe bis 2006 genommen - das Moorsches Gesetz läßt mal wieder grüßen.
Wie schon gesagt - seit über 30 Jahren immer das gleiche Spiel ...


i_hasser:
Selbst der vereinfachte Cell Kern ist dagegen das reinste Transistorgrab.
Nun, Transistoren werden nicht in Handarbeit gefertigt.
Ein 300 mm Wafer in 90nm enthält ca. 80-100 Milliarden Transistoren, bei 65nm wohl 150-175 Milliarden Transistoren. Mehr DIE / kleinere Einheiten verbessert die Ausbeute, nur wahrscheinlich nicht wirtschaftlich signifikant (s. 8M Xeon, oder IA64 Pläne, oder Dual-Core Opteronlinie bei AMD).
Getestet wird eh automatisch.

Übrigens, selbst bei Budget-Microcontroller werden heute Transistoren in Überzahl aufgebracht, falls sich dadurch die Softwareentwicklungskosten verringern.

Bei der PS3 dürften die Entwickler recht einfach portieren können (Quellcode/ Sony Bibliotheken) und dabei natürlich die Möglichkeiten nur teils nutzen. Aber es rechnet sich auch für die Softwareindustrie, selbst wenn die PS3 $50 mehr kosten sollte.

i_hasser:
Mir vergeht aber auch so langsam die Lust immer Romane zu schreiben, hatte aber auch nicht angenommen, dass du so verbohrt bist
Ich hab die $2 Milliarden nicht ausgegeben für die Cell-Entwicklung. Nur ich sage mir, wenn renomierte Firmen dies machen, hat es auch einen technischen Sinn. Und die Daten des Celle sprechen eben Bände dafür, daß es erfolgreich ausgegeben wurde.
Wieso ICH verbohrt bin, wenn IBM und Sony (bald auch IBM/Microsoft) solche Power(PC)-Designs im Budgetbereich anbieten kann ich nicht nachvollziehen.
 
Zuletzt bearbeitet:
Ich denke die PS3 braucht 4 Cells weil die Leistung sonst unter allem brauchbaren liegt.

Mit 4 Cells kann man wenigstens noch einen gewissen Grad an Dynamik erreichen, aber ich möchte sowas ganz ehrlich nicht programmieren müssen. Es ist verdammt schwer sowas auf 4 Threads aufzuteilen.


Naja... @rkinet:

Mal noch ein paar hübsche Zahlen für dich: Die PS2 hat einen 2560 Bit Speicherbus und erreicht damit Datenraten die weit jenseits aller Desktop Grakas zu dieser Zeit liegen. Trotzdem musste sich die PS2 nur kurze Zeit später von so ziemlich allen PCs überrunden lassen.

Das Problem mit Konsolen ist allgemein die schlechte Aufrüstbarkeit. Bei einem PC setzt man mal eine neue Graka rein und der Rechner läuft wieder schneller, die Konsole muss man mit allen Spielen usw. wegwerfen und eine neue kaufen.


Auch interessant ist übrigens der Nintendo Spielwürfel (aka Gamecube), der die geringsten Rohleistungen aus der Riege GC, PS2, XBox hat und trotzdem ähnliche Praxisleistung liefert.
 
Jetzt kommt mal wieder auf ein fachliches Niveau runter - eigentlich war es Zeitverschwendung den Thread zu lesen - das gilt für beide Parteien.

Fakt ist nunmal, das sich Sony etwas davon verspricht, wenn man den Cell in eine Spielkonsole baut. Irgendwie muss also die 'Numbercruncherleistung' in atemberaubende Grafik umgemünzt werden können. Jetzt nur mal so in den Raum gestellt:

Wäre Echtzeit-Raytracing möglich?
30 PovRay-Bilder pro Sekunde?
Das Finish erledigen dann noch die Pixel-Shader des nVidia-Chips.

Wie wird der Cell programmiert?
Hat sich der Programmierer selbst drum zu kümmern, die SPE's auszulasten?
Wie könnten Bibliotheken aussehen, die einem die Parallelisierung erleichtern?
Bei BeOS gabs den Ansatz, das jedes Window aus zwei Threads besteht, das Fenster selbst und der Inhalt des Fensters.

Kann der Cell vielleicht balancing betreiben, oder muss der Programmierer schauen welche SPE gerade frei ist, diese füttert er dann.

Eine jede SPE besitzt einen eigenen I-Cache, man füttert sie mit einem Makro, vielleicht ähnlich dem CG (C for Graphics). CG darf nur sehr wenige Branches haben um effizient zu bleiben. War es nicht so, das ein Grafikkern mehr als 100 Pipeline-Stufen hat. die Pipeline leerräumen und wieder auffüllen darf man nicht oft machen, sonst bleibt man besser gleich auf der CPU.

Also braucht man etwas dazwischen. Vielleicht sind hier die SPE's die Antwort.

Grüße,
Tom
 
Original geschrieben von mocad_tom
Wäre Echtzeit-Raytracing möglich?
30 PovRay-Bilder pro Sekunde?
Das Finish erledigen dann noch die Pixel-Shader des nVidia-Chips.

Wie wird der Cell programmiert?
Hat sich der Programmierer selbst drum zu kümmern, die SPE's auszulasten?
Wie könnten Bibliotheken aussehen, die einem die Parallelisierung erleichtern?
Bei BeOS gabs den Ansatz, das jedes Window aus zwei Threads besteht, das Fenster selbst und der Inhalt des Fensters.

Kann der Cell vielleicht balancing betreiben, oder muss der Programmierer schauen welche SPE gerade frei ist, diese füttert er dann.

cell-8.gif


also 4 bis 9 Watt je SPE bei 4 GHz je nach Vcc und ca. 40 - 60 Grad

nur: However, estimates in the range of 50 to 80 Watts @ 4 GHz and 1.1 V were given.
http://www.realworldtech.com/page.cfm?ArticleID=RWT021005084318

bzgl. 'reinem' PowerPC-Core Strombedarf habe ich noch nicht entdeckt.


cell-3.gif



http://www.realworldtech.com/page.cfm?ArticleID=RWT021005084318&p=5 - eine der acht SPEs.

Jede SPE hat den VMX Befehlssatz. Den kenne ich aber im Detail nicht.
Also 8* VMX beim Cell.

Die XBox2 CPU wird mit 3* PowerPC-Core also 3* VMX gehandelt.

Im Prinzip also ähnliche Aufgabenstellungen für die Programmierer beider Consolen.
Man kann wohl erwarten, daß entsprechende Bibliotheken zur Vergüng gestellt werden und die Spieleprogrammierer sich entsprechend ausrichten.
Logisch wäre, wenn auch 'Longhorn' sich auf ähnliche Hardwaredesigns ausrichtet, was ja zumindest durch Multi-Core x86-64 CPUs im Ansatz schon realisiert wäre.


Echtzeit-Raytracing ?
Sicherlich haben die Entwickler der Hardware darüber nachgedacht.
Mein Tip: man hat eine Umsetzung entsprechend vor.
 
Zuletzt bearbeitet:
Original geschrieben von i_hasser
IBM hat von der Leistung pro CPU Probleme da hinterherzukommen, brauchen sie aber auch garnicht - da werden einfach 8 PowerPC auf eine Platine gebacken und das wird dann als Modul verkauft, zersägt jeden x86er. Dummerweise nur bei speziellen Anwendungsbereichen, im Desktop Betrieb nutzt das nämlich garnix.

Power! Bitte, werft das Zeug nicht immer durcheinander. Der PPC basiert zwar auf dem Power-Design, ist aber in vielen Teilen stark/grundlegend anders aufgebaut. Das was die beiden Typen noch am meisten gemein haben, ist das Power im Namen.

Original geschrieben von BLJ
EDIT: PS: unerklärlich sind mir auch jene Leute die immer behaupten, Konsolen hätten bessere Grafikqualität. Wie wird diese bitte definiert?

Das geht eigentlich überhaupt nicht, weil Fernseher nur mit 640x480 Pixeln darstellen.
 
Zurück
Oben Unten