Seagate Constellation ES, ES.2 oder ES.3

Meist ist es doch unerheblich, welche Platten verbaut waren. Wenn eine Defekt ist, wird eine aktuelle Platte gleicher Größe eingesetzt und fertig. Dass zeitgleich gekaufte Platten zeitgleich ihre Haltbarkeitsgrenze erreichen, ist auch nicht unlogisch. Gerade bei 24/7 Betrieb. Die Serverplatten halten übrigens nicht länger. Das ist ein Trugschluss und wird bei mir in der Firma auc immer wieder bewiesen. Wir kaufen auch nur noch 24/7 Platten. Die Serverplatten werden nur noch da verwendet, wo der Versicherungsschutz die Spezifikationen verlangt.
SSDs halten den Dauerbetrieb immer noch nicht wirklich aus. Wir haben noch keine SSD im Dauerbetrieb über 2 Jahre gebracht und wenn die Teile defekt werden, ist's gleich richtig mies.
 
Zuletzt bearbeitet:
Welche SSDs waren das und was für ein Datenvolumen wurde in der Zeit auf die SSDs geschrieben? Consumer SSDs sind für Enterprise Anwendungen mit viel Schreibvolumen nur bedingt geeignet und wenn man die falsche SSD verwendet, kann es eben nicht lange gutgehen.
 
Das weiß ich leider nicht. Ich bin bei uns nicht für den Hardwarekauf bzw die Serverstruktur zuständig. Ich kenne da auch nur das, was die Kollegen erzählen. Aber ich kann die mal fragen.
 
Dass Serverfestplatten nicht unbedingt haltbarer sind als Desktop-Laufwerke kann man so unterschreiben. Man darf jedoch nicht vergessen, dass sie härteren Umweltbedingungen ausgesetzt sind. Höhere Temperaturen und mehr Vibrationen im Besonderen. Außerdem dürfen sie sich oftmals nicht bei schonenden sequentiellen Zugriffen austoben, sondern müssen sich mit verteilten Zugriffen abrackern. Und das über Monate und Jahre hinweg. 15K Festplatten machen das selten länger als drei Jahre mit, bevor sie erste Auffälligkeiten zeigen. Das sind halt Rennpferde, die nach einer Saison völlig ausgelaugt sind. Würden 5.4K oder 7.2K Platten so gefordert, würden sie sehr schnell den Geist aufgeben. Die wahren Arbeitstiere sind jedoch die 10K Platten. Die halten deutlich länger, aber bringen eben nicht die Leistung. Die Zugriffszeiten und damit die IOPS-Werte fallen im Vergleich zu den 15K Platten deutlich schlechter aus. Mit SSDs in Servern habe ich nicht viel Erfahrung. Genauer gesagt gar keine. Seit U320 LVD SCSI und 2/4 GBit/s FibreChannel nicht mehr aktuell sind, habe ich mich mit dem Thema nicht mehr beschäftigt. Danach war bei mir nur noch SATA angesagt. Ich weiß nur, dass die NetApp PAM II bei einem Bekannten die Erwartungen in Sachen Zuverlässigkeit nicht ganz erfüllt haben. Das kann aber auch an den Controllern gelegen haben. Es muss nicht der Verschleiß der Flash-Chips gewesen sein. Es handelt sich bei den NetApp PAM II um PCIe Steckkarten. Allerdings ist das nun schon eine Weile her. Neuere Enterprise-Flash-Speicher machen ihre Aufgabe vielleicht besser als diese Vorzeigelaufwerke der ersten Generation.
 
Zuletzt bearbeitet:
Das mit den 10k und 15k Platten kann ich so nicht untschreiben.
Bestes Beispiel unser Boot:
Die Datenbankplatten mit 15k sind: Manufactured in week 50 of year 2006 und week 51 of year 2006
Die Webserverplatten mit 10k sind: Manufactured in week 53 of year 2005 und week 53 of year 2005
Alle 4 tun unaufällig weiterhin ihren Dienst und sind nicht gerade im Schonbetrieb....

Die 7200er Enterprise SATA Platten bei einem Kunden bei mir sterben jetzt so nach 4-5 Jahren alle wie die Fliegen.
 
Ein Sterben meinte ich gar nicht mal. Eher erhöhte S.M.A.R.T. Werte und ein ohrenbetäubendes "Kreischen" bei den 15K Platten.

Das hat man dann oft sogar bei einem Idle der Platte durch die Lüfter hindurch gehört. Sie wurden dann vorsorglich getauscht.
 
Also mir kommen die Dinger mittlerweile auch vor wie heiße Kartoffeln. Im wahrsten Sinne des Wortes; ohne Kühlung werden sie gefühlt 70-80 grad warm. Dazu verbrauchen sie einfach zu viel Strom. Pro tag kommt jetzt hier ein "Medium-Error" mehr im Raid-Manager zum Vorschein.

Die fliegen raus! Aber entscheiden hab ich mich noch immer nocht :-)
 
Das mit den 15k Platten kann ich auch nicht unterschreiben, ich kenne da einige die schon viel länger als 3 Jahre arbeiten und eigentlich mal ersetzt werden müssten, aber sie funktionieren weiterhin problemlos und das wirklich pausenlos in DB Servern.

Ich weiß nur, dass die NetApp PAM II bei einem Bekannten die Erwartungen in Sachen Zuverlässigkeit nicht ganz erfüllt haben. Das kann aber auch an den Controllern gelegen haben. Es muss nicht der Verschleiß der Flash-Chips gewesen sein.
Schau Dir doch mal an, wie die MTRON und die Intel X25-E im Dauerschreibtest auf xtremesystems.org abgeschnitten haben. Die MTRON waren auch schnell und unter komischen Umständen kaputt und die SLC NANDs der X25-E waren nicht besser als die MLC NANDs der X25-V. Der Controller ist wahnsinnig wichtig bei einer SSD und wenn der kein brauchbares Wear-Leveling hat, dann können schnell viele P/E Zyklen für einige der Zellen zusammen kommen. Aber die immer wieder genannten 100.000 P/E Zyklen für SLC halte ich für schamlos übertrieben, vielleicht schaffen die besten Qualitäten das sogar aber ob immer nur diese besten Qualitäten in SSD verbaut wurden? Ausprobiert hat es ja praktisch keiner und worauf die Ausfälle letztlich wirklich beruhen, weiß auch keiner.

Bei der Intel X25-E 64GB hat sich jedenfalls nach 579.46 TiB der Available Reserved space von 100 auf 99 verringert, obwohl es angeblich keine Reallocations gab, S.M.A.R.T. Attribute sagen eben nicht immer die Wahrheit, nach 625.97 TiB sind dann die ersten beiden Reallocated sectors aufgetaucht, da waren gerade erst 5% der garantierten Zyklen verbraucht. Bei 665.36 TiB waren es 7 Reallocated sectors, bei 702.41 TiB schon 27 und der Wert ist munter weiter gestiegen.

Im Vergleich dazu hat sich bei der Intel X25-M G1 80GB nach 431,9031 TiB die Anzahl der Reallocated sectors von 02 auf 04 erhöht (den Post 0 auf 2 habe ich nicht gefunden) und da war der MWI auf 82, es waren also nur 18% der Garantierten P/E Zyklen verbraucht. Bei 439,2336 TiB waren es 5 (MWI 80), bei 443 TiB 7 (MWI 79) und Ende war sie nach 883.46 TiB, da war der Zähler der Reallocated sectors schon mehrfach übergelaufen (ist der Aktuelle Wert, nicht der Rohwert) und auch der MWI war schon unter 0 und wieder bis 235 runter. Der Available Reserved space war auf 16 gefallen.

Beiden haben den gleichen Controller, beiden haben 80GiB NAND verbaut und wenn die Meldung über das Ableben der X25-E fehlt, so war bei der letzten Meldung nach 1.58 PiB der Available Reserved space von 25 (bei 1.49 PiB) auf 14 gefallen, die SSD also sehr nahe am Ende und hatte nicht einmal doppelt so viele Daten geschrieben.

Vergleicht man das noch mit der Crucial m4 64GB, die genau darüber auch nahe dem Ende ist aber noch lebt und 2110.8663 TiB (=2.06PiB) geschrieben und 36477 P/E Zyklen überstanden hat, obwohl sie 20% weniger NAND und auch nur das MLC in 25nm statt in 50nm wie die beiden Intel hat, so zeigt das doch deutlich, dass SLC nicht so eine mythische Haltbarkeit hat und die Fortschritte der Controller sowie der NAND Fertigung die prinzipiellen Nachteile von mehr Bits pro Zelle und kleineren Fertigungsstrukturen durchaus mehr als ausgleichen können.
 
Also ich habe auch einige betagte SCSI Festplatten hier, die noch laufen sollten, es zumindest bis zum Ausbau taten.

Zum Beispiel:

Links: Cheetah 15K.4 (FC)
Rechts: Cheetah 10K.6 (SCA)


Die haben klaglos ihre fünf oder sechs Jährchen abgeleistet. Das haben wie gesagt jedoch nicht alle geschafft.
Manche haben vorher Auffälligkeiten gezeigt. Wirklich ausgefallen sind dagegen nur wenige Festplatten vorzeitig.

Bei uns wurden sie sofort ausgetauscht, wenn sie das kleinste nicht erklärbare Klackern von sich gegeben haben.
Und das war bei einigen 15K Platten häufig nach drei Jahren der Fall. Bei den 10K Platten seltener. Die liefen ruhig.
 
Zuletzt bearbeitet:
So, nach langem Überlegen sind es nun zwei "Enterprice Capacity 3TB" ST3000NM0033 (vormals: Constellation ES.3) geworden.

Ich fand einfach keine Platte die alle folgende Merkmale unterstützt:
1in10^15 Fehlerrate
min. 600.000 Load-Unload-Zyklen
kurze Zugriffszeiten
512b Sektoren

Leider fehlte bei der Konkurrenz immer irgendwas. Nur das HGST-Modell 7K4000 wäre noch interessant, aber auch 25€ teurer. So hab ich auf altbewährtes gesetzt.

Kommen werden die Platten frühestens morgen :-(
Kostenpunkt: 197€ / Platte

Aber zu den Sektorgrößen hab ich mal noch ein paar Fragen, da das Thema an mir bisher vorbeigegangen ist.
1) Wie ich gelesen habe ist 4kb Sektorgröße mitnichten Vorraussetzung für Partitionsgrößen >2TB. Damit das klappt muss aber ein 64 Bit OS sein Werk verrichten und eine GPT statt MBR angelegt werden (-> Windows-Datenträgerverwaltung?!)
2) Will ich das OS auf eine >2TB Partition installieren benötige ich zwingend einen UEFI-Unterbau UND 4kb Sektorgröße (was nicht der Fall ist, da SSD vorhanden)
3) Würde ich eine 3TB-Platte mit 512Byte mit XP-32 nutzen wären nur 2,2 TB ansprechbar?!

Also kann ich bedenkenlos zu einer 512Byte-Platte greifen, wenn ich
erstens: nicht davon booten will
zweitens: wenn ein 64 Bit-OS vorhanden ist ??
drittens: das wars?

Mein PC ist nämlich noch ein sogenannter "IBM kompatibler" PC mit echtem BIOS aber 64 Bit-OS und CPU.
Hängen sollen die Platten am Adaptec 6445 SAS2.0 Raid-Controller, später Migration auf ein Sata-Onboard-Controller von Intel.
 
Ob Advancded Format (4k Physikalische Sektoren) oder nicht, spielt für 1.) und 2.) keine Rolle, denn das ist nur ein Performancefrage und für den Rechner im Prinzip komplett transparent, da diese Platten allesamt 512 Byte Sektoren emulieren (512e). Ob 512e oder 512n (nativ), spielt also nur für die Performance eine Rolle, da die mit den 512e Sektoren eben langsamer sind, wenn man nicht immer einen kompletten physikalischen 4k Sektor be- bzw. überschreibt.

3.) XP kann mit Platten über 2.2TB nicht umgehen, da es kein GPT unterstützt, also nur MBR und damit nur 32Bit Adressen für Partitionsdaten unterstützt. Um doch größere Platten zumindest an USB zu unterstützen, werden von vielen USB-SATA Bridgechips selbst 4k Sektoren emuliert, was aber nichts mit dem Advanced Format der Platte zu tun hat und auch bei Deinen mit 512n passiert. Ob der USB-SATA Bridgechip eines USB Gehäuses oder einer Dockingstation diese 4k Emulation hat, kann man leicht feststellen, indem man eine cmd.exe öffnet und eingibt:

wmic diskdrive get BytesPerSector,Model

Bei mir kommt dabei raus:
BytesPerSector Model
512 M4-CT512M4SSD2
512 ST1000LM024 HN-M101MBB
4096 ST3000DM 001-1CH166 USB Device
Meine 3TB ist also in so einem Gehäuse mit 4k Sektoremulation verbaut. Die kann man auch nicht einfach intern am PC oder in einem Gehäuse ohne diese Emulation anschließen, wenn man sie nicht neu partitionieren und formatieren sondern Daten retten oder übertragen will.
 
So Platten sind da und eingebaut.

Sie sind sauschnell. Aber offenbar hat HD-Tune 2.55 ein Problem damit meht als 2,2 TB anzusprechen wie man sieht. Egal, hier der Benchmark:

Konfiguration: Adaptec 6445, Raid1, Write-Cache:off, Read-Cache:on

Zum Vergleich die ES.2 (7200/2T):

Konfiguration: 6445, Raid1, Write-Cache:on, Read-Cache:on

Und hier die alten 15K-Platten (15K.7/600G):

Konfiguration: 6445, Raid1, Write-Cache:on, Read-Cache:on

Die ES.3 sind damit quasi schneller als die 15K-Platten. Nur bei den Zugriffszeiten ist die 15K nachwievor nicht einzuholen.

Aber zu den Platten an sich ma noch eine kleine Anmerkung. Ale ES-Platten hängen in einer Chieftec SST-3141SAS-Backplane. Aber ich höre seit gestern Geräusche, die ich so noch nicht gehört hab. Sie kommen eindeutig aus der Backplane. Es ist ein konstantes, ich weiß nicht wie ich es ausdrücken soll, Schwingen, oder Eiern mit ca. 5 Schwingungen pro Sekunde. Dachte erst an Zugriffsgeräuse, aber dafür hört sich das zu regelmäßig an. Es ist auch nur ganz leise, aber es ist zuhören.
Nach ein paar Minuten ist es wieder weg und paar Minuten später wieder da, also ständig im Wechsel. Dachte noch an Geräusche die durch den Spindelmotor kommen, aber bei 7200rpm dürften dass dann 120 Schwingungen pro Sekunde sein. Und das trifft nicht zu. So richtig schlau werd ich aus den Gräuschen nicht. Aber scheinbar hat es keinerlei negative Effekte, die SMART-Werte sind alle OK und die Controllersoftware hat auch nix zu meckern, und der Speed stimmt auch. Da diese Laufwerke besonders Vibrationsresistent sein sollen, hoffe ich mal, dass das alles so seine Richtigkeit hat. Oder schaukeln sich hier die Vibrationen in der Backplane mit 4-Fach-(Voll)bestückung durch leicht von 7200rpm abweichende Drehzahlen zur Resonanz auf, ond auch wieder ab? Jetzt müsste man mal die Drehgeschwindigkeitsdifferenz aus den hörbaren Geräuschen ableiten können. Aber dazu muss man erstmal genau die Schwingungen messen. Dann kann man darüber die Rotationsdifferenz der Platten berechnen. Oder ist der Gedanke zu abwegig? Kann mir kaum vorstellen dass alle HDDs mit exakt 7200rpm laufen sollen. Entkoppelt sind sie nicht, sie sind mit einem Alu-Schiebe-Tray verschraubt. Die Backplane mach einen sehr soliden Eindruck - Chieftec halt :-).
Aber etwas komisch ist das schon.

Weitere Geschichte an die RAID-Experten gerichtet:
Mein 15K-RAID1 habe ich aufgelöst. Allerdings gestaltete sich das ganz anders als von mit im Vorfeld erwartet.
Was hab ich erwartet? In der Software den Raid auflösen, dann tauchen zwei identische Datenträger in der Windows-Systemverwaltung auf und ich kann auf den alten Datenbestand zugreifen - Pustekuchen!
Den Array bekommt man in der Software nur aufgelöst, wenn man in der Windows-Datenträgerverwaltung die Partition löscht!!! Damit einher geht natürlich der Verlust aller Daten. Hintergrund ist der hier: http://ask-de.adaptec.com/app/answers/detail/a_id/16943

"Jede Festplatte, die an einen Adaptec RAID oder HostRAID Controller angeschlossen und zur Nutzung in einem Array initialisiert wurde, enthält spezielle Datenstrukturen, die auch als Meta-Daten bezeichnet werden. Diese Datenstrukturen definieren die Konfiguration der Laufwerke, Partitionen und Arrays, welche mit dem Controller erstellt wurden. Diese Meta-Daten erlauben es ein ganzes Array von einem Controller auf einen Anderen zu übertragen, oder den Controller selbst zu tauschen, ohne die Partitionen oder Arrays neu konfigurieren zu müssen."

Na toll. Aber kein Problem, muss ich halt alle Daten vorher sichern.

Ich hätte aber gerne für die Zukunft für meinen Server den Umstand dass ich das RAID auflösen kann und dann zwei inhaltlich identische Partitionen habe die ich auch weiter verwenden kann. Was mache ich da?
1) Raid1 auf dem ICH-R
2) Software-Raid1 im OS
3) Hardware-Raid1 mit anderer Karte (welcher?)
Diese drei Möglichkeiten schweben mir da vor. Ich möchte sagen, dass einfache Onboard-Raid1-Arrays jederzeit aufgelöst werden können zu weiteren Verwendung des Inhalts. Das Array soll im Prinzip verkraften können, dass ein Laufwerk rausgenommen wird um dieses an einem anderen PC auszulesen. Dies ist nur für den Worst-Case gedacht. Dennoch war ich ziemlich erschüttert, dass Alle Daten weg sid beim Auflösen des Arrays, weil mir das so einfach nicht in Erinnerung war.

Was meint Ihr?
 
Zuletzt bearbeitet:
Ein RAID 1 ist nicht einfach nur eine automatische Spiegelung der Daten, da sind noch Verwaltungsinformationen vom Controller vorne drauf, weshalb man auch Platten aus einem RAID 1 nicht einfach ausbauen und normal nutzen kann! Ein RAID ersetzt auch kein Backup, das sollte man trotzdem anfertigen.
 
Doch kann man, ich habe es ja selbst erlebt auf einem Epox Board mit Highpoint Raid-Controller. Die Platten ließen sich ohne Probleme woanders auslesen.
Daher nochmal die Frage wie Eure Erfahrungen dahingehend mit RAID1 sind.

"Ein RAID ersetzt auch kein Backup, das sollte man trotzdem anfertigen. " - kanns nicht mehr hören - zumal es nichts mit dem Thema zutun hat.
 
Du hast es mit einem RAID Controller erlebt, aber bei anderen RAIDs ist das eben nicht automatisch genauso.
 
"falls das RAID 1-Volume das einzige Volume auf dem Array" ist, ja wie macht man denn nun ein RAID1 mit nur einer Platte? Oder habe ich da was missverstanden?
 
Ja du verstehst da was falsch.

Auch Massenspeicher werden heutzutage im System abstrahiert, sodass ein Datenträger nicht einem Volume gleichzusetzen ist. Was die von Intel meinen ist, wenn ein RAID1 (mit mind. 2 Platten natürlich) erstellt wurde, muss dieser Verbund ja noch in der Datenträgerverwaltung initialisiert und partitioniert werden.
Auf einen physischen Datenträger wird ein "Volume" definiert (meist in der Größe der Platte). Auf diesen "Volume" kannst du dann deine Partitionen einrichten (maximal in der Größe des Volumes). Ich könnte ja auch auf einer Platte zwei Volumes einrichten und den zweiten Teil für ein -Software-RAID-0 nutzen.

Ich werde es schlicht und einfach testen, wenn es soweit ist und dann hier meine Erfahrungen berichten.

Aber hey.. was sagt Ihr zu dem Benchmark der ES.3 ?! :-)
Kopieren von dem ES.2-Verbund auf den ES.3-Verbund ging mit 160-200MByte/s, und das dauerhaft.
 
Zuletzt bearbeitet:
Bei mir kommt dabei raus:
Meine 3TB ist also in so einem Gehäuse mit 4k Sektoremulation verbaut. Die kann man auch nicht einfach intern am PC oder in einem Gehäuse ohne diese Emulation anschließen, wenn man sie nicht neu partitionieren und formatieren sondern Daten retten oder übertragen will.

Hatte ich erst überlesen. Nun ich habe früher oft mir 2,5" Sata und PATA-Platten und Wechselgehäusen für USB hantiert und eigentlich nie ein Problem feststellen können was Sektorgröße und so betrifft.
Und wenn dein USB-Gehäuse nach außen hin 4k Sektoren emuliert ist es doch eigentlich egal. Warum sollte man sie nicht an einen Onboard-Controller hängen können wenn doch heutige Betriebssysteme sowohl mit 512 als auch 4096 Bytes klarkommen? Für mich war das bisher eine Selbstverständlichkeit. Dass manche Raid-Box intern bei RAID5 mit Ext-FS arbeitet ist nicht weiter verwunderlich .. aber bei RAID1 sollte doch gerda diese Funktion möglich sein. Einige Anbieter werben ja auch mit Klonmöglichkeit durch RAID1 in dem Gehäuse.

Aber mit derart großen externen HDDs habe ich halt noch keine Erfahungen.
 
Zurück
Oben Unten