Eine Frage bezgl. U.3

Darkness008

Vice Admiral Special
Mitglied seit
11.11.2001
Beiträge
708
Renomée
0
Standort
31582 Nienburg
Ich hoffe ihr könnt mir einmal helfen. Ich bin an einen U3 Controller interessiert um dort 4 U.3 SSDs anzuschließen.

Auf was muss ich da achten. Würde folgender Controller passen?
Was benötige ich dann noch? Vor allem hinsichtlich der Kabel. Welche Kabel bräuchte ich um eine U.3 SSD anzuschließen.
CIh lese da immer etwas von U.3/SFF-TA-1001 oder SFF-8654 (welcher am Controller anliegt). Gibt es da dann ein Kabel das diesen Anschluss auf das U.3 Format umwandelt, sodass ich dann max 8 u.3 SSDs anklemmen kann oder geht das nicht?
 
Ich habe nur Erfahrung mit U.2, mir war nicht mal bewusst, dass man da für SSDs noch was anderes als NVMe benutzt (ich sah U.2 bislang als äquivalent zu NMVe, und habe Einschübe für SAS/SATA nicht als U.2, sondern als 2.5" bezeichnet). U.3 soll offenbar diese Einschränkung von U.2 beheben.

Bei den U.2 die ich im alten Job benutzt habe, waren die Slots direkt mit dem Mainboard verbunden, hingen dort am PCIe der CPU (EPYC), ein spezieller Controller wurde da nicht verwendet. U.3 scheint im wesentlichen zu definieren, dass der Controller NVMe, SAS und SATA können muss. Ob das sinnvoll ist, da kann man sich wohl streiten (Wenns nix kosten soll nehme ich SATA, wenn ich Performance will, NVMe, SAS fällt in meinen Augen in ein Loch zwischen diesen beiden Extremen, es kostet mehr, hat weniger Auswahl an Produkten als SATA, bringt aber nur das Doppelte an Durchsatz).
Die Frage ist jetzt, was willst du in die U.3-Einschübe für SSDs reinschieben, und brauchst du Hardware-RAID? Wenn es NVMe sind, dann kannst du die im Prinzip auch direkt mittels geeigneter Adapter an die CPU anhängen und Software-RAID machen (PCIe Bifurcation muss unterstützt werden, ich habe KEINE Erfahrung mit entsprechenden Adapter, da ich immer Boards hatte, die das Onboard hatten).
Wenn du Hardware-RAID mit NVMe möchtest, dann ist der MegaRAID 9670W-16i wohl geeignet.
Falls keine NVMe verbaut werden sollen, dann sehe ich den Sinn für U.3 nicht so wirklich (da kann man günstigere RAID-Controller kaufen, die nur SAS/SATA können), ausser du möchtest einen Mischbetrieb aus teuren NVMe und billigen SATA-SSDs machen (hier rate ich aber dazu, vertieft zu prüfen, welche Einschränkungen da allenfalls bestehen). Oder gar noch 2.5" HDDs verbauen.

Zur Kabel-Frage, typischerweise haben Systeme eine Backplane, das heisst man hätte in dem Fall zwei SFF-8654-Kabel die zur Backplane führen. Die Backplane wird dann separat mit Strom versorgt.
Es gibt auch Kabel, die SFF-8654 auf 4xSAS/SATA (SFF-8482) aufteilen, und zusätzlich dann noch eine oder mehrere Buchsen haben, um den SAS-Stecker mit Strom zu versorgen.
Beachte dass der 9670W-16i gemäss Handbuch 16 PCIe-Lanes downstream hat, wenn du nur 4 SSDs anschliessen willst, dann brauchst du Adapterkabel, die einen SFF-8654 auf nur zwei Anschlüsse aufteilen, damit dort je 4 PCIe-Lanes ankommen.
Wenn du 8 SSD anschliessen möchtest, dann bist du bei NVMe auf 2 PCI-Lanes pro SSD beschränkt.
Generell habe ich den Eindruck, dass U.3 primär für den Einsatz in Servern mit Backplane gedacht ist (Um Flexibilität bei der Bestückung der Einschübe zu haben), und weniger für "fliegene" Verkabelung von einzelnen Laufwerken.
 
Zuletzt bearbeitet:
Vielen dank für deine sehr ausführliche Erläuterung. Dann werde ich nochmal schauen was so geht im kleineren Bereich.

Hab einen schönen Montag
 
So jetzt kommt doch noch ein zwei Fragen auf. Ich hätte mich jetzt für diesen HBA entschieden mit diesem Wechselrahmen.
Nur kommt die Frage auf welches Kabel ich dann nehmen müsste. Es müsste ja ein 1x SFF-8654 auf 4x SFF-8612. Gibt es solch ein Kabel und wenn nicht was müsste da ansonsten zwischen?
 
Ich hätte mich jetzt für diesen HBA entschieden mit diesem Wechselrahmen.
Es ist doch bei Broadcomm recht einfach strukturiert: Du hast bei einem RAID/HBA -Controller stets einen vierstellige Modellnummer, an der Du Generation/Features ablesen kannst (z.B. xx00 für HBA) gefolgt von "-XXi" oder "-XXe", wo XX der Anzahl der PCIe-Lanes entspricht und i = "an einem internen Port" bzw. "e" = an einem externen Port. Als Beispiel:
9580-8i8e -> ein Gen4-RAID-Controller der intern UND extern jeweils 8x PCIe-Lanes bietet, intern werden sie meistens durch einen 8-Lanes SFF-8654-8i Konnektor und extern durch ZWEI 4-Lanes SFF-8644 Ports realisiert.
Somit kannst gleich erkennen: Dein verlinkter HBA 9500-8i hat einen internen SFF-8654-8i Port, an den Du genau ZWEI U.2/U.3 SSDs anschließen kannst, dieses "-8i" ist also ausschlaggebend -> für 4x SSDs brauchst also irgendeinen mit "-16i". Ich habe sogar einen mit -24i, somit SECHS SSDs möglich (sofern man jede mit 4 Lanes auch betreiben will, sonst ginge ja 4-mal so viel mit nur einer Lane).
Nur kommt die Frage auf welches Kabel ich dann nehmen müsste. Es müsste ja ein 1x SFF-8654 auf 4x SFF-8612.
Ja, Du denkst richtig, ein SFF-8654 8i auf 2x Oculink SFF-8611 *greater* 8612 ist beim Oculink der Port, auf gut Deutsch also die "Büchse", wo der 8612-Stecker reingesteckt wird. Aber das verwechseln manchmal sogar die Händler, also ruhig nach beidem suchen.
Gute Übersicht mit Kabel-Empfehlungen gibt es direkt bei IcyDock - ich habe erst einen Fehler gemacht micht nicht daran zu halten und für meine "ToughArmor MB699VP-B V3" andere billo-Kabel von ALiE zu kaufen - im Endeffekt hat >Hälfte nicht funktioniert, so dass ich billiger und problemloser gleich die empfohlenen Kabel kaufen könnte. Hier ist eine gute Übersicht:
 
War da nicht auch was mit BiFurcation mainboardseitig? Gerade bei den 16i?
 
BiFurcation mainboardseitig? Gerade bei den 16i?
Anzahl der Lanes ist irrelevant - Bifurkation brauchst Du bei jedem einfachen Adapter (also ohne eigener Logik) sobald Du mehr als 1 Gerät (in diesem Fall SSD) in einem PCIe-Slot benutzen willst. Und umgekehrt: Bifurkation-Unterstützung seitens MB/CPU brauchst Du NICHT, wenn Dein Adapter eigenen PLX/Raid-Controller besitzt, der die Lanes weiterreicht/verwaltet. In diesem Fall ist es natürlich auch möglich die Lanes zu reduzieren, ohne Bandbreite pro SSD drastisch einzuschränken - wenn man die SSDs nicht alle auf einmal ansprechen will, versteht sich. So kann man 4x oder sogar 6x 4-Lanes-SSDs an einem Adapter im 8xLanes-Slot betreiben und sogar in einem 4xLanes-Slot - solange man nur eine auf einmal anspricht, gibt es keinen Engpass.
 
Zurück
Oben Unten