10GBit Netzwerk - Direct Cache Access - Cloud Computing

Status
Für weitere Antworten geschlossen.

mocad_tom

Admiral Special
Mitglied seit
17.06.2004
Beiträge
1.234
Renomée
52
Mit I/O Acceleration Technology, Direct Cache Access und Multiqueue-Netzwerkkarten sind TCP/IP-Verbindungen besser in Hardware gegossen worden und Multiqueue hilft Multi-Core-Systeme besser aus zu lasten.

Gibt es hier weitere Bestrebungen, um noch mehr merkmale von Infiniband in diese 10Gbit-Systeme mit hinein zu nehmen. Ist z.B. ein spezieller PCIe Port denkbar, der direkt an die CPU angeflanscht wird, um die Latenzen noch weiter herunter zu drehen.

Diese Features sind besonders Cloud Computing interessant, da günstig viel Rechenleistung vernetzt werden muss. Gleichzeitig darf aber nicht zu viel CPU-Overhead das System belasten. 10GBit Ethernet hat einen klaren Kostenvorteil gegenüber Infiniband, wird in Punkto Leistung der Abstand ebenfalls verkürzt?
 
Hallo mocad_tom,

weitere wichtige Technologien sind die Unterstützung der Virtualisierung in Hardware, so daß die Netzwerkperformance auch ohne grosse Verluste innerhalb von virtualisierten Umgebungen durchgereicht werden kann.

Ein weiteres grosses Thema ist FCoE. Hier soll vor allem die Komplexität der Netzwerkinfrastruktur reduziert werden, die ja zur Zeit getrennte Netze für SAN und LAN haben.

Generell sind die PCIe Ports ja jetzt auch schon direkt an der CPU vorhanden.

Gruß,

Frank
 
....
Gibt es hier weitere Bestrebungen, um noch mehr merkmale von Infiniband in diese 10Gbit-Systeme mit hinein zu nehmen. Ist z.B. ein spezieller PCIe Port denkbar, der direkt an die CPU angeflanscht wird, um die Latenzen noch weiter herunter zu drehen.

Diese Features sind besonders Cloud Computing interessant, da günstig viel Rechenleistung vernetzt werden muss. Gleichzeitig darf aber nicht zu viel CPU-Overhead das System belasten. 10GBit Ethernet hat einen klaren Kostenvorteil gegenüber Infiniband, wird in Punkto Leistung der Abstand ebenfalls verkürzt?

Es grenzt zwar an OT aber:

Es gibt doch bereits Infiniband-Adpater bzw. 10GBit-Netzwerk-Adapter die per HTX (bzw HTX3) an AMD Opterons gehangen werden - gerade wegen der geringeren Latenzen ggü. PCIe (oder früher ggü PCI-X )

Daher wäre es auch durchaus möglich, dass Intel dies auch machen könnte - ohne PCIe - halt mit deren "HyperTransportDing" - QPI ?????
 
@Crashtest
Die Lösung ist wieder vom Markt verschwunden. Auch dieser Hypertransport-Slot.

Meine Frage zielt eigentlich dorthin:
Lighhtpd und Nginx sind entstanden, weil man das C10K Problem lösen wollte.
Dabei ging es nicht in erster Linie um Rohrechenleistung sondern um effektives Thread-Handling, Mutexe, Interrupts und andere Ressourcen, die in Multicore-Systeme plötzlich zur Mangelware wird.
Ein Punkt war ja mehr Netto vom Brutto.

Es lässt sich ja auch belegen, dass die Ladezeit von Amazon z.B. direkt Auswirkungen auf die Conversion Rate hat. Je besser die Ladezeiten desto höher die Umsätze bei Amazon, da sich der User auch länger auf der Seite aufhält.

Gibt es hier weitere Bemühungen um den wirklich guten Netzwerkchip 82599 noch besser an die Multi-Cores an zu binden. Mehr Netto vom Brutto bei niedriger Latenz unter hoher Last.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten