CeBIT: ServerWorks HT2000/HT1000 Chipsatz

mtb][sledgehammer

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
4.375
Renomée
30
Standort
Alphaquadrant der Milchstraße, Erde (kleiner blaue
Wie Planet 64Bit <a href="http://planet64bit.de/node/134" target="b">berichtet</a>, sind auf der CeBIT erste Mainboards mit dem gemeinsam von Broadcom und AMD entwickelten Opteron Chipsatz ServerWorks HT2000/HT1000 zu sehen. Demnach verfügt der neue Chipsatz unter anderem über PCI-X, PCI-Express und Dual GBit LAN, steht also in harter Konkurrenz mit dem erst kürzlich von NVIDIA vorgestellten nForce 4 Professional (wir <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=all&id=1106575636">berichteten</a>). Einige Bilder der Hauptplatinen gibt es <a href="http://planet64bit.de/node/134" target="b">hier</a> zu sehen.
 
Genial, das wird der Chipsatz für meinen neuen Fileserver. Nix gegen Nvidia, aber soviel Vertrauen in die, als dass ich denen alle kritischen Daten anvertraue habe ich nicht. Ein Chipsatz der von AMD mit Serverworks, die ja allseits bekannt sind, entwickelt wurde, das lässt nur Gutes ahnen 8)
 
ServerWorks.......meiner Meinung nach das beste was gibt :)
Wären die Boards nicht so schweine teuer hätte ich am liebsten so einen Chipsatz in meinem Hauptrechner. Das Wort "Absturz" könnte ich dann aus dem Gedächtnis streichen !
 
War ja lange angekündigt!

Der NFORCE4 scheint aber auch ganz nett zu sein, sonst hätte HP den ja nicht in die Workstationlinie 9300 reingepackt.

Leider kann man nicht sehen was für PCI-Express der HT 2000 Chip hat. Scheint wohl PCI-Express 1x zu sein ... oder? Arima spricht von einer PCI-Express 8x Riser Card.

MFG Bokill
 
Was die Arimas derzeit wohl heraushebt, neben dem Gemeinschaftswerk HT 2000/HT 1000 von Serverworks/Broadcom mit AMD, ist der Infinibandchip auf dem Board.

Der Infinibandchip ist über 8 Lanes mit dem Chipsatz über PCI-Express angebunden. Die anderen 8 Lanes werden über einen PCI-E 8x Slot herausgeführt.

MFG Bokill
 
Original geschrieben von Bokill
Der Infinibandchip ist über 8 Lanes mit dem Chipsatz über PCI-Express angebunden. Die anderen 8 Lanes werden über einen PCI-E 8x Slot herausgeführt
Hmm schade, dass der nicht gleich direkt am HTr dranhängt :( Naja in der nächsten Revision hoffentlich, geht ja alles etwas langsamer im Serverbereich, was auch gut ist ;-)

ciao

Alex
 
Wenn das so langsam mit PCI-Express weitergeht, dann eröffnet sich eine Lücke für HT-Steckkarten.

Für den "Massenmarkt" ist aber eine PCI-Express Infinibandlösung aber sicherlich nicht schlecht. Der Infinibandchip selber war aber wirklich klein und unauffällig, ob der im Betrieb aber einen Kühlkörper braucht kann ich nicht sagen. Sah aber nicht so aus.

Mir scheint, dass die Komplexität von PCI-Express von vielen unterschätzt wurde, oder aber die ersten Serienlösungen (i915/i925) nicht ganz den Papierforderungen entsprachen ... den merkwürdig langsamen Start kann ich mir nicht anders erklären.

Der Bedarf an High Speedinterconnects wird dank wachsenden Markt mit Grids deutlich steigen. SUN hat da ein Programm aufgelegt, das Rechenleistung wie Strom verkauft. Ein High Speedinterconnect von einzelnen externen Rechnern mit dem Mellanox-Chip hilft dabei ganz sicher.

MFG Bokill
 
Hiho,

naja ein Chip für HTr sollte dann auch nicht übermäßig mehr Strom verbraten. Geschwindigkeitsmäßig hält es sich anscheinend die Waage, mit 1000 MHz HTr Takt bzw. 8x PCI-E, sollten beide interfaces 2,0 GByte/s übertragen.
Nur hat AMD bei den Latenzen die Nase vorn, HTr braucht keine Umwege zur CPU :)

z.B.:
http://www.devx.com/amd/Article/22534/1763
(Allerdings kannte der Autor damals noch kein PCI-E)

ciao

Alex

P.S. Na mal abwarten, was beide Lösungen für eine Leistung liefern :) Pathscale/Iwill sollte ja auch fertig werden :)
http://www.hypertransport.org/docs/news/110804_HTX_EEtimes.pdf
 
Zurück
Oben Unten