Einstieg in das 2,5 GbE LAN mit QNAP QSW-1105-5T (und ASUS PCE C2500).

eratte

Redaktion
☆☆☆☆☆☆
Mitglied seit
11.11.2001
Beiträge
21.748
Renomée
2.777
Standort
Rheinberg / NRW
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2020
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2021
Das Home Office bedingt durch die Pandemie bringt einen auf (jedenfalls mich) "Bastelgedanken".

Aktuell besteht mein Heimnetz aus:

- 1 x 8 Port 1 GbE TP-Link Switch - an ihm hängen Hauptrechner, Server und weitere Rechner die nicht viele Daten auf dem Server erzeugen.
- An Port 7 hängt eine FritzBox 7490 und an ihr angeschlossen ist ein SW Laser Netzwerkdrucker
- An Port 8 hängt ein zweiter 8 Port 1 GbE TP-Link Switch und an ihm Boinccruncher und der berufliche Notebook der nur Internet per VPN benutzt.

Bevor wer moppert, ich sitze hier meist nur alleine (aktuell sogar sicher nur alleine zum zocken kommt keiner ;) ) daher hat das wenig Auswirkungen das die Clients am 2. Switch sich da den Uplink teilen müssen.

Da die beiden Hauptrechner nun schon 2,5 GbE LAN onboard haben bin ich auf die Idee sie schneller an den Server anzubinden da sie recht viele Daten bewegen und ich auch da recht oft ein aktuelles Image erstelle. 2,5 GbE weil die Kosten dafür in dem Fall überschaubar waren (schon vorhanden) gegenüber direkt 10 GbE und die Hardware deutlich genügsamer ist.

Erster Punkt war das ich dem Server eine entsprechende LAN-Karte verpassen muss und einen Switch mit 2,5 GbE dann brauche.

Entschieden habe ich mich für QNAP QSW-1105-5T und eine ASUS PCE C2500 2.5GbE LAN-Karte.



Der erste Teil der Vorbereitung ist erledigt, die LAN-Karte im Server ist getauscht. Intel 1 GbE PCIe raus die ASUS PCE C2500 rein. Das ging klaglos, Intel vorher auf DHCP gestellt und dann deinstalliert. Die PCE C2500 basiert auf dem Realtek RTL8125AG Chipsatz. Die Windows 7 Treiber ließen sich ohne Probleme auf Server 2008 R2 (die nächste offene Baustelle) installieren. TCP/IP wieder eingerichtet und fertig.



Der zweite Teil steht noch aus, die 3 Rechner am ersten 8 Port 1 GbE TP-Link Switch müssen an freie Ports der Firtzbox oder vom zweiten 8 Port 1 GbE TP-Link Switch verteilt werden. Einer der nur cruncht wird WLAN nutzen. Und dann den ersten 8 Port 1 GbE TP-Link Switch durch den QNAP QSW-1105-5T ersetzen.

Der QNAP QSW-1105-5T hat ein reines Metallgehäuse, ist passiv gekühlt. Durch die Gitter links und rechts kann man den Kühlkörper innen sehen. Er macht einen hochwertigen Eindruck.

Aktuell werden laut Explorer beim kopieren von größeren Files die 113 MB/sec erreicht die 1 GbE so hergibt. Der Server ist aktuell noch in Wartung vom Raid. Ich werde dann vor dem Umbau und danach mit LAN Speed Test testen.

Umbauen kann ich erst nach oder vor Arbeitsende/anfang. Dann geht es hier weiter.
 
Zuletzt bearbeitet:
Vor dem Switchtausch und Netzumbau 2 Tests zwischen PC1 und PC2 gemacht (da beide eine NVMe haben) mit noch 1 GbE:

22 GB File von PC1 auf PC2 schieben, blieb durchgängig bei 113/114 MB/sec



LAN Test zwischen PC1 und PC2 (5GB File)



Umbau kommt am Wochenende.
 
Umbau fertig. Hauptrechner, Server und Zweitrechner hängen an Port 1 bis 3 mit 2,5 GbE. An Port 4 hängt der übrig gebliebene 8 Port 1 GbE TP-Link an Port 5 die Fritzbox. An der Fritzbox der Drucker und 2 Rechner - der Rest an dem TP-Link

Selbe Tests wie oben mit 2,5 GbE

Ziel ist wieder die 970 Evo im Zweitrechner, schwankt etwas - maximal habe ich 283 MB/Sec gesehen.



Wie auch bei 1 GbE ist bei LAN Test das schreiben niedriger:



Ich bin erst mal zufrieden - weitere Tests stehen noch aus - verwendet wurden die vorhandenen Kabel. Bei 2,5 GbE ist die Link LED grün bei 1 GbE Gelb.

Der Server hat noch ein Problem beim senden von Daten zu ihm das nicht schneller als vorher, ich bin da noch auf der Suche. Das der Raid 5 mit 4 x WD RED zu langsam ist wie ich zu erst dachte ist es jedenfalls nicht. Auch auf der kleinen Samsung 830 ist es nicht besser. Lesen dagegen im erwartetem Rahmen.

Liegt wohl eher an der LAN-Karte und oder Treiber - ggf auch Kabel noch. Mal schauen ob ich die Ursache finde.
 
Zuletzt bearbeitet:
Am Kabel liegt es nicht, zum testen kurz die Kabel vom Zweitrechner und Server getauscht was nichts geändert hat. Lesen geht ja auch bis zum Anschlag, nur wenn man Daten auf den Server schickt nicht. Einstellungen die ich im Treiber vorgenommen habe ändern auch nichts.

Werde die Tests nun mal vom Zweitrechner aus wiederholen, wenn das da genauso ist dann werde ich bei Gelegenheit mal ein anderes OS auf dem Server starten oder nach abklemmen der Laufwerke auf einer leeren SSD installieren. Andere LAN-Karte zum gegen testen habe ich nicht.

Tests vom PC2 > Server zeigen das selbe Bild. Anderes Kabel von PC1 zum Switch auch.

Ursache muss also am Server liegen und ggf seinem Speichersystem oder der LAN-Karte. Da Lesen von der Bootssd schnell geht muss ich da mal weiter schauen. Langsamer als vorher ist es ja nicht, Lesen schon mal fast am Limit. Schreiben auf ca dem Niveau wir vorher beim Client/Server Verkehr.

Werde in dem Server eine freie NVMe einbauen und dann mal sehen (wenn ich die bei Server 2008 R2 als Datenlaufwerk eingebunden bekomme) wie es dann aussieht. Update des Speichersystem und der restlichen Hardware vom Server war aktuell nicht vorgesehen.

Samsung 950 Pro mit Adapterkarte in den freien PEG 16 PCIe 3.0 Slot gesteckt, mit Bootstick und Disk Doctor gewiped. Windows6.1-KB2990941-v3-x64 und Samsung NVME Driver eingespielt und eine GPT Partition angelegt.

Performance passt für die kleine 256 GB 950 Pro:



Das selbe File wie gehabt vom Hauptrechner auf den Server mit der NVMe als Ziellaufwerk:



Das sieht schon ganz anders aus, die Serverinstallation und ihr IO-System schränken da wohl heftig ein im Moment. Das hatte ich so eher nicht erwartet.
Mal schauen ob ich das noch am Server verbessern könnte sonst muss das mit dem erneuern des Servers in absehbarer Zeit verbessert werden.

Dazu muss ich erst mal mich für eine Server 2019 Version entscheiden und dann planen wie und ob ich da eine Migration des AD hinbekomme usw.

Die 4 WD RED (5400 UPM) haben 6 Jahre auf dem Buckel und die restliche Hardware wie das P8H77-M PRO noch mehr (habe da allerdings noch das selbe Board als Ersatz im Schrank liegen). Bis jetzt läuft das tadellos ausfallen kann das natürlich auch.



Hmm, schöne nicht erwartete Folge des Updates auf 2,5 GbE *kopfkratz

Die 3 TB WD RED und das als Raid 5 zu fahren war eine Entscheidung damals möglichst viel Speicherplatz am Stück zu haben, die begrenzte Ausfallsicherheit ein netter Nebeneffekt (der Rechner hängt hinter einer USV). Vielleicht würde es ja schon reichen die betagten Festplatten gegen 2 aktuelle schnellere HDDs auszutauschen. 2 x 6 TB im Raid 1 würden da ausreichen aber muss mich noch schlau machen ob die dann reichen das 2,5 GbE zu bedienen.

Da anstatt SSDs einzusetzen ist mir aktuell noch deutlich zu teuer, das Board hat aktuell auch nur 2 x SATA III und 4 x SATA II intern. RAID 1 könnte ich aber auch an einem DS-30104-1 betreiben.

Oder in näherer Zukunft direkt mit neuer Hardware und Serverversion neue Maschine auf bauen. Fragen über Fragen. ;)

Samsung 950 Pro nach dem es nun klar ist wieder ausgebaut, Cacheeinstellungen auf Sever noch mal kontrolliert die passen für das Raidlaufwerk.
 
Zuletzt bearbeitet:
Als kostenlosen Versuch die IO Leistung des RAIDs zu verbessern ist mir noch eingefallen von Raid 5 (bin damals mit 3 Laufwerken gestartet) auf RAID 10 um zustellen. Bedeutet zwar weniger Platz aber aktuell sind von knapp über 8 TB noch 5.4 frei. Daten wieder herstellen ist nicht das Problem da auf Backuprechner und auch externen Laufwerk gesichert. Fragt sich nur ob das es wirklich verbessert.

Habe mal eben ein Userreview einer Iron Wolf Pro 12 GB gelesen (für die kleinere mit 6 oder 8 finden sich da eher keine) - da reicht eine HDD auch knapp nicht um ein 2.5 GbE Netz wohl zu bedienen - aber deutlich besser als was bei mir da im Moment aktiv ist.
 
Habe das RAID 5 auf dem Server getestet und es liefert nicht mehr die gewohnte Leistung was mir vorher mit 1 GbE LAN nicht aufgefallen ist.
Dabei ist auch aufgefallen das die 4 HDD 2 wieder zugewiesen Sektoren hat. Ich habe nun nach Datensicherung den Raid aufgelöst und teste die 3 fehlerfreien HDDs einzeln. Sie schaffen mehr als das RAID 5 zum Schluss beim CDM.

Nur Seq. getestet:


Werde nun noch mal einen RAID 5 aus den HDDs erstellen und dann testen ob es wieder bessere Werte liefert. Mittelfristig muss ich mir da was anderes
einfallen lassen. Da bin ich mir aber noch nicht sicher, im Moment tendiere ich zu einer schnell 7200 UPM HDD ala IronWolf (Pro) die zwar dann das LAN nicht voll bedienen kann aber doch ziemlich weit oben.

PS.: Die Überprüfung des RAIDs hatte keine Fehler oder Probleme vorher gemeldet. Im Moment läuft die Initialisierung und Datenwiederherstellung.
 
Zuletzt bearbeitet:
Schöner Bericht - bestärkt mich aber, nix zu machen bei meinem Setup :-D Bin gespannt wann 10 Gbit "bezahlbarer" werden. Im Endeffekt müsste bei mir mindestens ein Gerät im Haushalt, einen 10 Gbit Port haben, damit es sich für mich "lohnt" bei Switch und einem weiteren 2. Endgerät die Kohle in die Hand zunehmen, um aufzurüsten.
 
Die Initialisierung des Raids auf dem Server ist bei 70 %, das dauert also noch bis ich das mit dem neuerstellten RAID Verbund testen kann.

Zwischenfazit zum eigentlichen Thema:

Man sollte vor dem LAN Update überlegen ob man das auch ausreizen kann. Habe ich nicht gemacht weil ich mich da auf die Werte die ich für das Raid im Kopf hatte verlassen habe. Wer also einen Heimserver oder NAS hat dann hängt es von den Speichersystem und des IO Leistung ab.

Bei einzelnen HDDs (7200 UPM) hängt es von der IO-Leistung ab, aber eine HDD kann das 2,5 GbE nicht auslasten. Die Schreibleistung eine HDD ist nicht über alle Bereiche gleich hoch. Außen dann vielleicht 240 MB/Sec und nah dran aber in anderen Bereichen dann nur noch 145 MB/Sec. HDDs wie die WD Red (5400 UPM) bei mir schaffen das auf keinen Fall.

Besteht das Speichersystem aus SDDs muss man sich da eher keine Sorgen machen, aber da kostet viel Speicherplatz auch viel. Immerhin gibt es NAS Geräte die z.B. M.2 Slots für SSD Caching anbieten - das dann auch gehobene Preisklasse und die SSDs muss man auch kaufen. Bleibt noch ein Raid aus HDDs oder ggf Hybrid. Da muss dann aber auch die Leistung und nicht nur Platz und erhöhte Sicherheit stimmen.

Wenn man mein Server auch schon neuere Hardware hätte dann wäre bei 2,5 GbE der Switch der einzige und in der 5 Port Version ein überschaubarer Kostenfaktor gewesen. So kam noch die LAN-Karte dazu.

Wie schon geschrieben, der Switch wirkt durch sein Metallgehäuse sehr wertig - er macht das was es soll für einen unmanged Switch. Wandmontage geht auch. Steht er wie bei mir im Drucker/LAN Schränkchen muss man die Füßchen noch ankleben. Da kein Lüfter hört man natürlich nichts von ihm.

Die ASUS PCE C2500 macht auch was sie soll wenn die Umgebung stimmt. Läuft ohne Probleme auch noch auf Server 2008 R2 - Treiber und Diagnoseprogramm habe ich direkt von Realtek genutzt.

Stimmen die Bedingungen wird auch das 2,5fache zu 1 GbE erreicht,

Der Vorteil von 2,5 GbE gegen über 10 GbE sehe ich das es heute schon auf den meisten Mainboards mitkommt und auch langsam günstigere Switche verfügbar sind und den deutlich geringeren Energiebedarf. Zu dem das man seine Verkabelungen übernehmen kann. Die Kabel die ich hier liegen habe sollten alle so von 2006 bis 2014 sein.

Hatte mir auch überlegt direkt einen QSW-M2108-2C zukaufen aber das wäre erstens eine ganz andere Preisregion gewesen und zweitens gibt es Testberichte zu der Serie das der Lüfter gut hörbar ist. 10 GbE Karte für den Server kostet auch das mehr als das Doppelte und 24/7 wollte ich die auch nicht laufen haben. Switch updaten geht immer wenn da mal die Preise noch besser sind und die restlichen Bedingungen auch was für 10 GbE hergeben.

71 % , denke Morgen kann ich den neu erstellten RAID Verbund dann testen.
 
Als kostenlosen Versuch die IO Leistung des RAIDs zu verbessern ist mir noch eingefallen von Raid 5 (bin damals mit 3 Laufwerken gestartet) auf RAID 10 um zustellen. Bedeutet zwar weniger Platz aber aktuell sind von knapp über 8 TB noch 5.4 frei. Daten wieder herstellen ist nicht das Problem da auf Backuprechner und auch externen Laufwerk gesichert. Fragt sich nur ob das es wirklich verbessert.
RAID 10 hilft vor allem auch bei Random-Zugriffen, da ist RAID 5 einfach übel. Ich habe immer von RAID 5 abgeraten, ausser es geht wirklich nur darum, möglichst günstig grosse Datenmengen abzulegen, ohne da gross Ansprüche an die Leistung zu haben

Habe mal eben ein Userreview einer Iron Wolf Pro 12 GB gelesen (für die kleinere mit 6 oder 8 finden sich da eher keine) - da reicht eine HDD auch knapp nicht um ein 2.5 GbE Netz wohl zu bedienen - aber deutlich besser als was bei mir da im Moment aktiv ist.
Du kannst von den grossen Kapazitäten nicht zwingend auf die kleineren Modelle der gleichen Serie schliessen. Die Hersteller verbauen da teilweise langsamere Komponenten (niedrigere Datendichte), weil das bei den kleineren Kapazitäten reicht, oder verzichten z.B. auf Heliumfüllung (was dann zur absurden Situation führt, das die kleinere Disk mehr Strom braucht).

Persönlich spiele ich auch immer mal wieder mit dem Gedanken rum, aber einerseits brauche ich es so gut wie nie (habe kein NAS, und auch in der Schweiz kriegt nicht jeder 10GBit-Internet), andererseits ist mein Rechnerpark auch einfach zu alt um da gross zu profitieren.
Bezahlbare, passiv gekühlte 24 Port-Switches mit Management (VLAN) gibt es nicht, und ich habe wenig Lust Switches in Serie zu schalten. Die 2.5GBe-Komponenten brauchen auch mehr Strom (noch schlimmer ist es bei 10GBit), und im Sommer bin ich um jedes Watt weniger Abwärme froh. Trotzdem achte ich natürlich darauf, dass neu gekaufte Kabel 10GBit unterstützen, irgendwann kommt der Moment wo ich aufrüsten werde.

Als ich das letzte mal eine USB-NIC brauchte (für ein Android-TV) habe ich mir mit dem Gedanken "zukunftssicher" eine teurere 2.5GBe bestelt, und dann rausgefunden dass Android-TV die Hardware nicht unterstützt. Tja, wer teuer kauft, kauf zweimal :-)
 
Habe Reviews zu der IronWolf Pro 8TB gefunden, danach ist die sogar etwas schneller als die 12 TB Version. Cache ist auch gleich groß, kleiner ist der nur bei den 4 TB oder kleiner Versionen.

Aber erst mal schaue ich was mit dem Raid aus 3 WD Red 3 TB raus kommt nach dem ich da die 4. mit den 2 wieder zugewiesen Sektoren raus genommen habe. Die muss ich noch mal an durch testen aber so richtig vertrauen tue ich ihr nicht mehr.

Bei den WD RED muss man ja aktuell drauf achten was man da bekommt, wohl meist SMR so das es nicht sinnvoll ist da eine 4 zu kaufen um auf Raid 10 zu wechseln auch im Angesicht das die vorhandenen ja 6 Jahre auf dem Buckel haben.

Wenn es mit dem RAID 5 nicht besser wird tendiere ich eher zu einer 8 TB IronWolf Pro an dem SATA III Anschluss. Aber das entscheide ich wenn es so weit ist.

PS.: Die Initialisierung des Raids auf dem Server ist bei 80 % *wegpenn*
 
Die reine sequenzielle Leseleistung steigt natürlich mit jeder Platte im Raid-Verbund.
Was man aber auch betrachten muss, ist die stripe size.
Je größer um so besser der sequenzielle Durchsatz. Fördert aber nicht unbedingt die Verteilung kleiner random IOs.

Bei Random IO kommt es darauf an sie groß die IOs sind, und ob diese sich über die Platten verteilen.
Es kann da kommen, dass zufällig immer alle IOs auf einer Platte landen, dann ist die Geschwindigkeit immer so wie die einer Platte.

Auch das Dateisystem spielt eine Rolle und ob es weiß, dass es auf einem Raid-Verbund ist und wie groß dieser ist.
Die Blocksize spielt auch eine wesentliche Rolle.

Alles in allem muss man experimentieren um für den jeweiligen Anwendungsfall das optimale herauszuholen.

one fits all gibt es hier sicher nicht.
 
Initialisierung des Raids auf dem Server ist fertig, Daten vom Backup zurück gespielt. Und die Performance ist besser als vorher obwohl nun nur 3 HDDs statt 4.



Das GbE 2.5 wird dabei aber auch nicht voll ausgereizt aber doch natürlich im Schnitt einiges schneller als vorher. Um das zu verbessern muss das Speichersystem im Server besser werden. Da schwanke ich aber noch was, wie und wann.

Ursache war aber wohl die raus genommene WD RED 3 TB:



CDM sieht auch nicht gut aus:



Kommando zurück nach Reboot des Rechners geht es (ist per ESATA angeschlossen, das erste mal im laufenden Betrieb):



Lasse gerade H2testw drüber laufen. wichtige Daten würde ich ihr nicht unbedingt mehr anvertrauen.
Doppelposting wurde automatisch zusammengeführt:

Habe jetzt 2 IronWolf 8TB mit 7200 UPM und 256 MB Cache bestellt und werde dann erst mal eine testen.

Wird aber ein paar Tage dauern bis die da sind. Die 3 WD RED 3 TB können dann in der Backupmaschine 5 x 1 TB WD RED ersetzen - der Rechner wird nur einmal die Woche Nachts aufgeweckt und dann die neuen Daten vom Server drauf geschoben. Längerfristig möchte ich aber von den RAID5 Installationen weg kommen.
 
Zuletzt bearbeitet:
Zur Vollständigkeit halber:



H2testw hat keine Fehler gefunden, werde sie dann im externen Gehäuse zum transportieren nicht lebenswichtiger Daten benutzen und weiter beobachten wenn das mal nach der Pandemie wieder gegeben ist.

Server für das testen der IronWolf 8 TB vorbereitet.

Samsung 830 120 GB hängt statt an SATA III Port 1 an SATA II Port 1
3 X 3 TB WD RED hängen nun an SATA II Port 2 bis 4

Die SATA III Port 1 und 2 am Intelkontroller sind nun frei und ich kann die IronWolf dann einzeln und als RAID 1 testen. Alles bequem per HotSwap Einschüben vom Lian Li PC-V600. Und parallel zum bestehen Raid 5, wenn dann alles gut läuft ist Daten bewegen und RAID 5 Festplatten nachher ausbauen.

Nun müssen sie nur erst mal da sein.
 
Zuletzt bearbeitet:
So die 2 "Jungs" sind angekommen:





In den Server eingeschoben und Raid 1 erstellt, im Moment noch volles "Programm" in den HDD Einschüben.



CDM 8.01 Bench wie erwartet:



Schrieben nun mit dem bekannten File einiges schneller und konstanter im Durchschnitt bei ca 150 MB/sec

Lesen wie von der NVMe



Wenn es mehr sein soll muss es eine SSD- oder Cachelösung sein, mir reicht das erst mal so für mich alleine. Und ich bin dann bald (kopieren von Raid 5 auf Raid 1 läuft gerade dann stell ich das im Zugriff um wenn es einige Zeit keine Probleme gibt entferne ich den Raid 5 und er wandert in das Backupsystem) das Intel Raid 5 am Server los das gibt mehr Freiheiten wenn ich die Hardware mal erneuere.
 
Zuletzt bearbeitet:
Das Drama war noch nicht ganz zu Ende, auch wenn es nur noch wenig mit dem 2,5 GbE zu tun hat gehört es doch zu der ganzen Geschichte.

Nach dem ich die 2 Ironwolf an den SATA III Anschlüssen angeschlossen hatte, Raid 1 erstellt und Initialisierung durch war und ich die Performancetest über LAN gemacht hatte wollte ich die 2,7 TB Daten vom Raid 5 auf den Raid 1 kopieren.

Der Server ist dann nach einiger Zeit abgestürzt und hat einen Reboot gemacht beim kopieren, Quelle egal ob vom Raid 5 oder externen Backup.
Raid 1 danach mit Fehler und es wurde automatisch eine Reparatur an gestartet.

Raid 1 aufgelöst, Platte "gewiped" und dann eine Einzelne eingerichtet. Problem beim kopieren bleibt bestehen. Die Ereignisanzeige lässt hier ein Treiberproblem vermuten. BIOS auf dem Board ist das letzte aktuelle, der Intel RST der letzte aktuelle für den H77 Chipsatz.

Das Board hat neben den 6 SATA Anschlüssen vom H77 auch noch einen Marvell SATA III AHCI Controller mit einem eSATA Anschluss und einem internen SATA Anschluss (da ist das Kabel vom Front eSATA des Gehäuses angeschlossen). Ich habe dann die eine IronWolf an den interen SATA des Marvell an geschlossen und siehe da keine Probleme mehr.

Da die 3 TB WD Red im Raid 5 keine Problem am H77 machen vermute ich das es da ein Problem wegen der Größe der IronWolf gibt. Jedenfalls Test mit einem älteren RST haben auch nichts geändert.

Also DS-30104-1 aus dem Schrank (habe da noch 2 von), in den unteren PEG Slot vom Board und die beiden HotSwapeinschübe der Ironwolfs an Channel A und B angeschlossen. Mit control/m in die Raid Oberfläche und Raid 1 eingerichtet und noch den letzten Treiber für den Controller installiert.

Raid 5 auf Raid 1 kopiert, Raid 5 den Laufwerksbuchstaben entzogen und dem Raid 1 verpasst. Nach Reboot alles ok. Rechner noch mal aus gemacht und die 3 WD Red entfernt. Server läuft erst mal tadellos.

CDM am DS-30104-1:



Das schöne ist die 3 WD Red konnte ich mit ihren Einbauschienen einfach in den Backuprechner schieben nach dem ich die 5 1 TB WD Red da raus gezogen hatte. Raid 5 vom Server übernommen musste nur etwas die Verzeichnisse anpassen. Das Gehäuse hat die selben HotSwapeinschübe wie das des Servers.
So mit auch am Backuprechner mehr Platz wieder zum sichern.

Damit muss ich mir auch keine Gedanken mehr machen wenn ich am Server mal Board, CPU und RAM erneuere.

Das 2,5 GbE LAN wird damit noch nicht voll ausgereizt aber schon meist über 200 MB/sec, Raid 10 mit 4 IronWolf ist mir erst mal zu teuer.
Ich bin erst mal zufrieden mit manchen Hindernisse bei der ganzen Aktion hatte ich nicht gerechnet.

Jetzt muss ich mal schauen wo ich als nächstes eine legale Windows 2019 Server Standard Version her bekomme, manche Angebote kommen mir da nicht geheuer vor im Netz.
 
Zuletzt bearbeitet:
Ich ziehe mal nach einiger Zeit in Betrieb ein Zwischenfazit, der Umstieg auf 2.5 GbE macht mir schon Spaß, klar selten redet man sich Einkäufe schlecht.
Das mehr an Geschwindigkeit zwischen den Rechnern ist schon angenehm. Meine VirtualBox VMs zum rumspielen mit z.B. Linux oder W11 habe ich
auch nun auf den Server verlagert. Natürlich kein Vergleich zu vorher auf einer lokalen NVMe aber schnell genug.

Was man halt dabei beachten muss ist wie erwähnt das die IO-Systeme das auch bedienen können. Die 2 IronWolf Pro bei mir reichen da so eben nicht immer ganz aus. Zusammen mit den 64 GB RAM (ECC) im neuen Server werden aber viele Anwendungsfälle bedient.

Für mehr wird es dann deutlich teuer, erst recht wenn man meint direkt auf 10 GbE zu gehen. Bei 2,5 GbE würden auch SATA SSDs reichen bei 10 GbE dann schon NVMe oder entsprechend leistungsfähige Raids mit SSDs und oder HDDs. Viele NAS der gehobenen Preisklasse bieten auch SSDs Cache als Option an.

Was mich von SSDs abhält ist einmal der Pries und dann die TBW. Je nach Datenaufkommen kann es da doch recht schnell zu Problemen kommen.
Gut sehen da die neuen NVMe mit 176er Layer NAND von Micron aus - bei der TBW jedenfalls. Beim Preis nicht mit 1000€ für 4 TB.

Also bleibe ich erst mal dabei wie es ist, HDDs sind auch immer noch ziemlich teuer aktuell sonst wäre ein Raid 10 eine Option.
Ich kopiere gerade eine 100 GB Imagedatei auf den Server, 283 mb/sec mit kurzen Haken wenn der Cache voll ist dann geht es weiter mit der Speed.
Das deutlich mehr als die 112 mb/sec mit 1 GbE.

Die reine Ausgabe für das Netzwerkupdate zum Start waren 120€ für den QNAP 5 Port Switch und 50€ für die ASUS Netzwerkkarte.
Die 50 Euro hätte ich mir sparen können wenn ich meinen Serverrechner vorher die nötige Erneuerung verpasst hätte. Sie ist aber
nicht ganz unnötig nun sondern in das ITX Backupsystem gewandert auf das der Server regelmäßig automatisch die Daten synchronisiert.
Das Raid 5 aus den 3 WD Red 3TB reicht da nicht um 2,5 GbE auszulasten aber schneller als 1 GbE ist es alle male aber im Grunde auch
unwichtig weil das Nachts abläuft und es recht egal ist wie lange das dauert. Die wichtigen Rechner hatten schon 2,5 GbE auf dem Mainboard.
Das bieten ja immer mehr Mainboards bei AMD oder Intel-Plattformen schon ab der Mittelklasse.

Bis vor kurzem sah das dann so aus:

5 Port 2,5 GbE Switch:
Port 1 - Rechner 1 mit 2,5 GbE
Port 2 - Server mit 2,5 GbE
Port 3 - Rechner 2 mit 2,5 GbE
Port 4 - Backuprechner mit 2,5 GbE
Port 5 - Fritzbox

FritzBox 1 GbE:
Port 1 - 5 Port Switch
Port 2 - LAN Kabel für Test/Reperaturen
Port 3 - Drucker
Port 4 - TP-Link 8 Port 1 GbE Switch

TP-Link 8 Port 1 GbE Switch:
Port 1 - FritzBox
Port 2 - ITX Rechner
Port 3 - Rechner für Boinc
Port 4 - Testsystem
Port 5 - Unternehmensnotebook

Per WLAN an der FritzBox hängen noch 2 Notebooks, die beiden HTPCs und 2 Bionccruncher.

Das war nicht so optimal also habe ich noch einen Zyxel MG-108 8 Port 2,5 GbE Switch gekauft. Die Anzahl der kleinen Switche mit 8 Ports die alle auch passiv gekühlt werden wächst auch gerade, da kann man ggf auch erwarten das die Preise weiter sinken. Und mit jedem verkauften Mainboard mit 2,5 GbE wird das interessanter. Z.B. TP-Link oder TrendNET bieten da auch entsprechende Geräte.

Ich sitze hier ja leider meist alleine hier aber wenn da Familie/WG/Kleinbüro hat der hat auch die Möglichkeit auf Comboswitche von z.B. QNAP zu setzen mit 8 Ports 2,5 GbE und 2 mal 10 GbE. Die sind dann auch gemanaged aber auch aktiv gekühlt. Zu dem muss das IO-Subsystem vom Server oder NAS hier auch eine entsprechende Leistung bieten um die 1000 mb/sec zu bedienen. Alles mit 10 GbE wird noch mal deutlich teurer. Mainbords mit der Schnittstelle sind teuer und selten.

Im Moment sie es so aus:

8 Port 2,5 GbE Switch
Port 1 - Rechner 1 mit 2,5 GbE
Port 2 - Server mit 2,5 GbE
Port 3 - Rechner 2 mit 2,5 GbE
Port 4 - Backuprechner mit 2,5 GbE
Port 5 - Testsystem mit 2,5 GbE
Port 6 - Server 2008
Port 7 - Fritzbox
Port 8 - 5 Port 2,5 GbE Switch mit 2,5 GbE

5 Port 2,5 GbE Switch:
Port 1 - 8 Port 2,5 GbE Switch mit 2,5 GbE
Port 2 - Unternehmensnotebook
Port 3 - frei
Port 4 - Rechner für Boinc
Port 5 - ITX Rechner

FritzBox 1 GbE:
Port 1 - 8 Port Switch
Port 2 - LAN Kabel für Test/Reperaturen
Port 3 - Drucker
Port 4 - frei

Also noch 2 Ports frei um mal was anklemmen zu können, gerade der Port am 5er Switch ist gut zu erreichen. Dadurch kommt es auch so gut wie zu keinen Einschränkungen durch geteilte Bandbreite. Der Unternehmensnotebook arbeitet eh nur per VPN über VDSL.

Ich bin damit erst mal sehr zufrieden, wer schon entsprechende Vorbedingungen erfüllt dem kann ich den Kauf eines 2,5 GbE Switch an das Herz legen.
Sonst sollte man vorher über die Folgekosten nachdenken wenn das IO System auch ein Update braucht. Da werde ich mir weiter Gedanken machen und die Möglichkeiten im Auge behalten das auf dem Server noch zu verbessern. Entsprechende Cachesoftware sehe ich da trotz USV eher nicht als Option.

Hier noch mal 2 Screens mit NAS Performance Tester 1.7 (M: ist eine Freigabe auf dem Server):

1000 MB File:


8000 MB File:


Vielleicht interessiert das ja den/die ein/e oder anderen/e ;)

PS.: an LAN-Kabeln wurde die vorhandenen alle weiter genutzt bis auf eins das hat schon bei 1 GbE immer wieder Aussetzer gehabt. Wurde ausgetauscht und zum Teil die Kabel neu "verlegt".
PPS.: Die ASUS PCE C2500 ist genauso problemlos wie die Realtek 2,5 LAN Adapter auf den C8H oder dem TUF B550M.

Hier mal der gleiche Test auf dem ITX Backupsystem das System hat "nur" 16 GB RAM da kommt es dann wohl bei dem großen File zu richtigen Einbrüchen:





 
Zuletzt bearbeitet:
Der Adapter USB Typ-A Stecker zu 2,5 Gigabit LAN von DeLock ist vor einiger Zeit auch angekommen ich habe ihn nun mal an einem Desktoprechner (R9 3900XT, ASUS B550....) ausprobiert. Es gibt auch eine Version mit USB-C.

Der Adapter bringt den Treiber für Windows 10 selber schon mit und bindet dafür ein virtuelles Laufwerk kurz ein.


5dea295a9b4c33.29398992.jpg


Kopieren 25 GB File auf den Server, Delle wo Cache auf Server voll:



Lesen des Files vom Server, Ziel eine 950 Pro NVME SSD:



NAS Tester mit 1 und 8 GB File:





Macht also was er soll mit Leistung ähnlich zu einer PCIe LAN-Karte, beim lesen scheint er etwas langsamer zu sein.

Beim ausprobieren sind keine Probleme aufgetreten, der Rechner hat selber einen intel I225-V Adapter - der ist seid er an 2,5 Gbe hängt schon mal zickig. Gibt es auch zahlreiche Beschwerden zu im Internet.

Bei mir wird der USB Adapter beim Notebook wenn es nötig ist eingesetzt und bei "Patienten" wo viele Daten erst mal gesichert werden müssen.
Kosten liegen so bei knapp 30 Euro aufwärts.

Wo ich gerade an dem Rechner dran bin habe ich auch die Treiberversion 1.0.2.13 für den I255-V installiert:



Diese soll laut Berichten in anderen Foren (z.B. CB) die Probleme beheben, der Treiber befindet sich in der wired_driver_26.4_x64.zip
Am besten vorher den Adapter incl. vorhandenen Treiber im Gerätemanager deinstallieren.

Mit NAS Tester sieht es nun gut aus vorher gab es da viele Aussetzer nach unten:





Auch beim kopieren auf den Server:



und lesen:



sieht nun alles ok aus. Entgegen der oft im Internet bestehenden Vorbehalte gegen RealTek LAN kann ich nur bemerken das sie bei 2,5 GBe alle bei mir ohne Probleme ihren Job machen. Egal ob als Adapter auf dem Mainboard (C8H oder TUF B550M), PCIe Karte oder USB Adapter.

Mit dem I255-V hat sich intel dagegen nicht mit Ruhm bekleckert, bei 1 GBe hatte ich da keine Problem aber mit 2,5 GBe konnte ich die Userrückmeldungen dazu nachvollziehen. Selbst beim auf schalten mit VNC ist da schon aufgefallen das man mal vom Rechner kurz getrennt wurde.

Die 1.0.2.13 scheint das erst mal zu beheben, bleibt abzuwarten ob es so bleibt auf Dauer.

Vielleicht hilft das noch jemanden, laut GH gibt es 16 Mainboards für AM4 mit dem I255-V.
 
Zuletzt bearbeitet:
Frag mal Linus wie der es macht . Der kommt aber auf GANNNNNNNZ andere Werte .

Da kannst mal so spaßeshalber gesagt wieder zurück in deine Krabbelkiste gehen.

Du weißt nicht wer Linus ist ? mööööp falsch den meinte ich nicht.

Den hier meine ich. https://www.youtube.com/c/LinusTechTips

lg
 
Ich kenne diesen "Experten".

Du meinst das:


Nun der Internettraffic interessiert mich erst mal gar nicht da klar ist das VDSL100 da keinen Nutzen raus zieht. Mir geht es um die Speed im internen LAN.
Und da schaut es halt so aus wie die Test zeigen, das bei vielen kleinen Files es etwas anders aussieht ist auch klar.

Ich bin jedenfalls mehr als zufrieden mit der Verbesserung und auch den Kosten die im Rahmen blieben.

Und was meint der Herr aus Berlin mit der "Krabbelkiste"? Da scheint er selber ja noch nicht angekommen zu sein.
 
Zuletzt bearbeitet:
Puh - der QNAP-Switch ist ja echt teuer - da hat mein Zyxel 12-Port (davon 3x 10 GbE RJ45!) kaum mehr gekostet! :o
Ok, meiner hat einen Brüllwürfel drin, der ist bis jetzt aber noch nie aufgefallen (und das Ding hängt im Keller, wo's auch kühler is')...
Dafür waren die NICs etwas teurer (und die zusätzliche SSD im Bristol Ridge Server *chatt*) - hab' jetzt aber Ruh' (auch wenn ich die 10GbE noch lange nicht ausschöpfe - aber es ist schonmal mehr als 2,5GbE)...
 
So lange ich nicht mindestens 16 (besser 24) Ports passiv gekühlte 2.5GBe managed Switches kriege, ist das für mich nicht interessant. Ich mag nicht mehr als einen Switch rumstehen haben, und ich will auch keinen lauten Lüfter in meinen Büro. Brauchen tu ich mehr als Gigabit privat auch noch nicht, aber man spielt halt trotzdem gerne rum :-)
Ich hoffe das grössere Verbreitung zu sinkenden Preisen führt, so dass es irgendwann auf jeden neuen Board zu finden ist und auch Switches günstiger werden.
 
Und was meint der Herr aus Berlin mit der "Krabbelkiste"? Da scheint er selber ja noch nicht angekommen zu sein.
Ich schrieb ja auch " spaßeshalber " wenn man es lesen möchte.

Aber da gibt es noch andere Videos von ihm wo Daten in seiner Firma intern hin und her geschoben werden mit wahnsinns Werten.

Tja wer kann der kann. Hantiert ja auch mit Summen wo unsereins einem Schwindelig wird.

z.b.


Da ist dann das was hier versucht wird eben Krabbelkiste.

Ich hab nur 1 Rechner und der reicht mir voll und ganz. Also schließe ich mich von der Krabbelkiste ganz pauschal aus.

lg
 
Zuletzt bearbeitet:
und wie ich es mitbekommen habe nimmt der Linus die 10 Gbit Karten für den Internen Filetransfer.

über des jeweiligen Rechners IP-Adresse , dann noch mit SSD´s . Dann wirst dich so im Geschwindigkeitsbereich von NVME bewegen.

Das hätte was ! 50 Gb game bums 10 sek kopiert fertig.

lg
 
Die theoretischen Bandbreiten von 2,5 GBe und 10 GBe sind ja kein Geheimnis, geht also darum wie erreiche ich die in der Praxis und was kostet mich der "Spaß".

Daher ist es für mich überhaupt nicht relevant was LTT da mit der Holzhammermethode erreicht, die haben da beim Video erstellen/bearbeiten auch einen Usecase für.

Ich habe mich beim Weg für ein schnelleres LAN für 2.5 GBe entschieden. 2,5 GBe war schon bei diversen Rechnern auf dem Mainboard vorhanden.
Verkabelung konnte auch übernommen werden.

Mit etwas anderer Reihenfolge der Updates wäre der Kauf von dem 8 Port Switch alleine ausreichend gewesen, 5 Port Switch und die 1 Lankarte sind aber
auch nicht überflüssig. Die Ausgaben also überschaubar und aktuell profitieren 5 Rechner davon und nicht 2 oder 3.

Alternative wäre z.B. ein Switch mit 2 x 10 GBe und 8 x 2,5 GBe gewesen - Switch deutlich teurerer plus 2 10 GBe Karten und vermutlich neu Verkabelung für die 2 10 GBe Rechner. Nutzen: ein Rechner schneller Zugriff auf den Server und höhere Bandbreite zum Server. 2. spielt bei mir nicht so die Rolle da meist alleine am Werk. Dazu kommt dann noch das das IO System im Server ein deutliches Update bräuchte. Eine 4 TB NVMe würde knapp reichen aber entsprechende Laufwerke mit einer hohen TBW kosten auch mal schnell 1000 Euro.

Letztendlich muss sich halt jeder selber überlegen wenn er da ein Update machen möchte für was er sich entscheidet. Für mich ist alleine wichtig das ich damit zufrieden bin auch wenn das "abwertend" als Krabbelkiste klassifiziert wird. Die Ausgaben waren für mich im Rahmen und ich habe Spaß an der Sache.
 
Zuletzt bearbeitet:
Zurück
Oben Unten