Solid State Drive (SSD) - Sammelthread

Status
Für weitere Antworten geschlossen.
Ist das dort ne einzelne Platte?
 
Zidane schrieb:
Allgemein, dachte man vermutlich auch das die Samsung F1 Reihe fehlerfrei ist und ein Hersteller wie Samsung keine neue z.t fehlerhaften Modelle auf den Markt wirft. Die Realität sieht leider anders aus

Heißt das das die F1 bauartbedingt fehlerhaft ist? Quelle?
 
Natürlich nur eine ;)
Hier scheinen die Angaben von Hama/MTRON mal wirklich haargenau zu stimmen. Sehr geil sowas...



Viell. kann ich wirklich mit 240MB rechnen (HDtach nur). Was real davon übrig bleibt werd ich dann sehen.
Das tolle an SSDs (bzw. Speichermedien in ähnlicher Art) ist, dass die Zugriffszeiten auch bei vielen Drives in Raid 0 immer gleich bleibt. Bei HDDs steigt die Zeit ja pro Drive immer weiter an.
 
ghostadmin schrieb:
So ein Blade ist hochredundant.

Das ist es keineswegs.

Man muss schließlich das System als ganzes ansehen und es ist fast unmöglich das es komplett ausfällt.

Es ist keineswegs unmöglich. Defekte HD oder defektes RAM oder...oder...oder

Ein normaler Server fällt da schon eher aus weil z.b. das Mainboard kaputt ist. Bei einem Bladecenter kannst du einen Failover auf einen anderen Blade machen

Das ist Clustering. Mit Clustering kriegst Du jeden Server redundant, egal ob Blade oder SuperDome.

Es sind dort wirklich alle Bauteile doppelt vorhanden bis auf das Chassis selbst aber da steckt fast keine Elektronik drin.

Mal abgesehen von der kompletten Lüftersteuerung, dem kompletten Hochspannungteils der Spannungsversorgung, dem Managementprozessor, dem Netzwerkswitch, diverser Interconnects, der Hotplug-Elektronik diverser Steckplätze,...
 
Mal abgesehen von der kompletten Lüftersteuerung, dem kompletten Hochspannungteils der Spannungsversorgung, dem Managementprozessor, dem Netzwerkswitch, diverser Interconnects, der Hotplug-Elektronik diverser Steckplätze,...

Das ist alles komplett redundant bis auf Steckverbinder und Leiterbahnen. Natürlich kann man Clustering machen aber das macht das ganze in Hardware (ein Blade fällt aus, der nächste übernimmt transparanent). Hast du überhaupt schon mal gesehen von was du hier schreibst?
.
EDIT :
.

Dieses recht ausfallsichere Bauteil ist meist nicht redundant ausgelegt. Das bleibt anfälligeren Bauteilen wie Netzteilen, Festplatten und Lüftern vorbehalten.

Das Management Modul kann auch redundant sein z.b. HP Blade C Class und natürlich auch Module für Netzwerk, Fibrechannel etc.
 
Heißt das das die F1 bauartbedingt fehlerhaft ist? Quelle?

Die beiden Sammelthreads sollten ausreichend Informationen geben, und ich sage mal das das kein Zufall sein kann, das geht da zwar jetzt überwiegend um das 1TB Modell. Das 750er setzt eh auf andere Platter, die kleineren gibts noch nicht wirklich zu kaufen.

Gut einige wenige haben auch eine fehlerfreie Festplatte, aber die Mehrheit jedenfalls nicht.

http://www.planet3dnow.de/vbulletin/showthread.php?t=309921
http://www.forumdeluxx.de/forum/showthread.php?t=398813 die letzten Seiten
http://geizhals.at/deutschland/a260889.html siehe Bewertungen.

Und damit behaupte, da bei manchen Platten was faul ist. Was kann ich zwar nicht sagen, aber andere Fehler seitens des Users oder einen Transportschaden schließe ich hier mal aus.

Zwar kann es immer mal passieren, das man irgendwo eine defekte Festplatte erhält, aber hier auf so kurzer Zeit sind mir das ein paar zuviel defekte Festplatten.

Allerdings darf man nicht erwarten, das es eine News geben wird, wo Samsung selbst offiziell zugibt das was schiefgelaufen ist.
 
Hm, ich seh schon - in das Boot 3.0 (oder vielleicht schon ins Boot 2.3 ;D) wandern auf jeden Fall zwei SSDs. Bei Datenbankzugriffen sind die Zugriffszeiten noch deutlich wichtiger, als der Durchsatz und hier hängt eine SSD selbst eine 15K SCSI-Platte dermaßen ab, dass es nicht mehr feierlich ist :o :D

Na das wär doch mal ein schöner, realer Belastungstest für ne SSD bezüglich der Langlebigkeit!!

Wenn ich die Ergebnisse so lese kommt mir immer der Gedanke an eine Eigenbau-SSD mit Speicherkarten in den Kopf :D:D
.
EDIT :
.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6176556&postcount=130


Das ist übrigens gerade gekommen :)
Allerdings komme ich heute nicht mehr dazu - muss nachher arbeiten...


Ui, das sieht fesch aus! Extra nochn Kühlkörper dabei für einen Passivbetrieb?! Wahnsinn...
 
AUA der Kontroller ist mit "Quirl" und von daher unbrauchbar in einem Server.
Der sieht schon so aus als wenn er beim genaueren hinsehen schon abfallen würde ...

lg
__tom
 
Nix Quirl, da ich den Passivkühler draufmachen werd ;)
Die Karte sitzt eh in einem lautlosen Luftstrom :D

Notwendig wird der Lüfter erst, wenn ich Raid 5 oder 6 betreibe. Und als alter Wakü-User hätte da schnell einen Wasserkühler draufgeschnallt. *lol*
.
EDIT :
.

So, sieht es jetzt aus. Ganz nett :D
Woher der Ausschlag bei HDtach kommt, weiss ich nicht. Der ist irgendwie immer da (Auslesefehler?)...

hc_201jgw.jpg


hc_202uu7.jpg


hc_2030aj.jpg
 
Und jetzt bitte die Tests unter "realen" Bedingungen, wie am Anfang, wiederholen ;) Das würd mich doch mal interessieren, ob die Geschwindigkeit da auch noch so raus kommt.
 
Notwendig wird der Lüfter erst, wenn ich Raid 5 oder 6 betreibe. Und als alter Wakü-User hätte da schnell einen Wasserkühler draufgeschnallt. *lol*

Wofür kauft man sich so einen Controller, wenn nicht für Raid5? Sonst dreht doch die XOR-Engine nur däumchen und man könnte genauso gut auch ein Software-Raid betreiben.....(Lastersparnis nach meinen Erfahrungen nicht messbar).

Ansonsten wären Tests mit dem guten alten h2benchw ganz interessant. Bitte auf unpartitioniertem Raid, um auch die Schreibleistung messen zu können.
 
[MTB]JackTheRipper;3467456 schrieb:
Und jetzt bitte die Tests unter "realen" Bedingungen, wie am Anfang, wiederholen ;) Das würd mich doch mal interessieren, ob die Geschwindigkeit da auch noch so raus kommt.
Kommt noch...
Mom. bin ich ziemlich angeschlagen. Ich versuche aber alles in den nächsten Tagen (insofern es nicht schlimmer wird) zu benchen ;)

Wofür kauft man sich so einen Controller, wenn nicht für Raid5? Sonst dreht doch die XOR-Engine nur däumchen und man könnte genauso gut auch ein Software-Raid betreiben.....(Lastersparnis nach meinen Erfahrungen nicht messbar).

Ansonsten wären Tests mit dem guten alten h2benchw ganz interessant. Bitte auf unpartitioniertem Raid, um auch die Schreibleistung messen zu können.
Ganze einfach. Weil dieser Controller der günstigste mit Cache ist. Ich wollte ursprünglich nen 3ware (PCIe x4) für 244€, aber die gesamte 9650-Serie (Post #1) akzeptiert keine SSDs.
Blieb mir also nur noch der günstigste Areca mit Cache für 262€...
Und PCIe x1-Controller kann man vergessen - bei ca. 250MB/s.-Bandbreite ist Schluss.
Diesen Controller hab ich sicher über Jahre hinweg und bis dahin gibt es evtl. SSDs mit S-ATA 2 und noch höherer Bandbreite. Ich denke 400MB/s. mit 2 SSD´s ist irgendwann möglich...

Ich bräuchte allerdings Hilfe zu h2benchw... ;)


Hier nochmal der Vergleich mit FC-Test (viele Dateien auf SSD entpacken).

Das war die Samsung (alt)


hc_195d4r.jpg


Hier die langsamere SSD (alt)

hc_193efl.jpg


Und das ist aktuell mit SSD!!! Geilo... :D (wurde 2x gemacht)

hc_205l7p.jpg
 
Zuletzt bearbeitet:
Ich hätte echt nicht gedacht, dass der Cache so viel reißt - einfach unglaublich. Ich liebe diesen Controller... :)
 
SPINA schrieb:
Dadurch lassen sich RAID Controller nicht aus der Ruhe bringen

Da hast Du vollkommen recht. Keine Ahnung was ich da im Sinn hatte.

Da muss aber gleich ein ganzes Modul ausfallen. Der Rest wird von den Paritiy Bits der ECC Mechanismen abgefangen.

Versagt ECC nicht bei mehr als 2 Bits in einem (wie auch immer definierten) Block?

Es gibt in den meisten Blades keine Lüftersteuerungen.

Auch nachvollziehbar. Wieder keine Ahnung was ich da im Sinn hatte.

Der [Serviceprozessor] steckt aber nicht im Rack oder im Chassis vom Blade, sondern ist neuerdings beim Board meist schon integeriert.

Ganz sicher? Ich dachte bei HP und IBM entsprechende Ports gesehen zu haben die z.Bsp. melden wenn Stromversorgung oder Lüfter des Chassis ein Problem haben.


Dieses recht ausfallsichere Bauteil ist meist nicht redundant ausgelegt. Das bleibt anfälligeren Bauteilen wie Netzteilen, Festplatten und Lüftern vorbehalten.

Ich hatte auch noch so Sachen wie die integrierten Switches und die Backplane für z.Bsp. Steckkarten erwähnt.
.
EDIT :
.

ghostadmin schrieb:
Das ist alles komplett redundant bis auf Steckverbinder und Leiterbahnen

Ich schrieb ursprünglich dass ein Blade keineswegs redundant ist. Dazu wird es erst durch entsprechende Software. Das das Chassis (heißt das eigentlich überall Bladecenter oder nur bei IBM? Egal, der Name passt) weitgehend redundant sein kann und soll ist weniger überraschend. Wenn 20+ Blades drin sitzen sollte einfach nichts passieren was alle gleichzeitig betrifft.


. Natürlich kann man Clustering machen aber das macht das ganze in Hardware (ein Blade fällt aus, der nächste übernimmt transparanent).

Kaum vorstellbar. Aber ich lasse mich da gerne eines besseren belehren wenn Du mir das Modell nennst das die Bootplatten in Hardware von einem ausgefallenen Blade zum Ersetzenden switcht.

Hast du überhaupt schon mal gesehen von was du hier schreibst?

Nein, ich greif nur Remote auf die Dinger zu und schlage mich gerade mit dem ILO2 rum nachdem der Direktor einigermaßen spurt. Und ich hoffe natürlich (wider besseres wissen) dass die Blades von Sun einstiegsfreudigere Doku haben. Und wie siehts bei Dir aus, schon mal selbst gesehen wie die Hardware einen Switch von einem Blade zum nächsten macht?

Das Management Modul kann auch redundant sein z.b. HP Blade C Class und natürlich auch Module für Netzwerk, Fibrechannel etc.

Hm. Dann haben die Hersteller dazu gelernt. Das war am Anfang der Entwicklung meinen Informationen zufolge ein ziemlicher Pferdefuß.
 
Zuletzt bearbeitet:
Versagt ECC nicht bei mehr als 2 Bits in einem (wie auch immer definierten) Block?
Wenn ich mich recht entsinne, dann ist es so, dass 2-Bit Fehler nur erkannt werden, aber nicht behoben werden können. Dies gelingt nur bei 1-Bit Fehlern. Man müsste wohl den Bus je Row durch einen weiteren BGA Chip auf 80 Bit verbreitern um das zu erreichen, aber das wäre unpraktikabel. Aber wann kommt es auch schon einmal zu 2-Bit Fehlern? Die Wahrscheinlichkeit dafür ist gering. Aber zu 1-Bit Fehlern kommt es über die Jahre gesehen schon recht häufig.
 
Zuletzt bearbeitet:
Wenn ich mich recht entsinne, dann ist es so, dass 2-Bit Fehler nur erkannt werden, aber können nicht behoben werden können. Dies gelingt nur bei 1-Bit Fehlern. Man müsste wohl den Bus je Row durch einen weiteren BGA Chip auf 80 Bit verbreitern um das zu erreichen, aber das wäre unpraktikabel. Aber wann kommt es auch schon einmal zu 2-Bit Fehlern. Die Wahrscheinlichkeit dafür ist gering. Aber zu 1-Bit Fehlern kommt es über die Jahre gesehen schon recht häufig.

So hab ich das auch in Erinnerung. In dem Fall wird dann einfach der Datenblock erneut übertragen, was am einfachsten ist und nur bei fehlerhafter Verbindung Probleme macht.

Ein kleiner "Realtest" mit einem anspruchsvollen Spiel oder ähnlichem würd mich auch sehr interessieren...
 
Ein kleiner "Realtest" mit einem anspruchsvollen Spiel oder ähnlichem würd mich auch sehr interessieren...
Das kann bei DRAM aber lange dauern. Ich habe dazu ältere Zahlen aus dem Jahr 1998 gefunden. Aber seitdem wird die Zuverlässigkeit nicht nenneswert abgenommen haben. Zwar sind die Speicherchips durch feinere Fertigungsprozesse vermutlich etwas anfälliger, aber die technologischen Fortschritte rund um die DRAM Technik werden das auszugleichen helfen. Man kann wohl mit einem Speicherfehler alle zehn bis hundert Jahre je nach Speichertyp rechnen. Wobei manche Faktoren wie erhöhte natürliche radioaktive Strahlung oder die Auswirkungen von heftigeren Sonnenstürmen hier auch reinspielen.

Quelle: http://www.ida.liu.se/~abdmo/SNDFT/docs/ram-soft.html
 
Ich schrieb ursprünglich dass ein Blade keineswegs redundant ist. Dazu wird es erst durch entsprechende Software. Das das Chassis (heißt das eigentlich überall Bladecenter oder nur bei IBM? Egal, der Name passt) weitgehend redundant sein kann und soll ist weniger überraschend. Wenn 20+ Blades drin sitzen sollte einfach nichts passieren was alle gleichzeitig betrifft.

scheint teilweise missverständnis zu sein, mit Blade mein ich das komplette Chassis. Eine Software ist aber dafür nicht notwendig

Kaum vorstellbar. Aber ich lasse mich da gerne eines besseren belehren wenn Du mir das Modell nennst das die Bootplatten in Hardware von einem ausgefallenen Blade zum Ersetzenden switcht.

nein, nicht die Platten sondern ein einzelner Blade kann von einem anderen transparent übernommen werden. Für den Ausfall einzelner Platten gibts doch RAID.

Und wie siehts bei Dir aus, schon mal selbst gesehen wie die Hardware einen Switch von einem Blade zum nächsten macht?

ich war 2 Tage lang im HP Democenter inkl. Schulung und habe schon Blades von Dell und HP installiert inkl. SAN

Sofern die Blades von der Hardware identisch sind kann ein blade nach dem ausfall des anderen die Daten 1:1 übernehmen (man weißt NIC und FC einem anderen Blade zu), natürlich macht das nur Sinn wenn man ein SAN benutzt. Ich denke mittlerweile ist es sogar möglich dies ohne Reboot zu machen.

Mittlerweile geht das sogar über mehrere Chassis hinaus:
http://searchdatacenter.techtarget.com/originalContent/0,289142,sid80_gci1281547,00.html
 
Wärt ihr so lieb und könntet die Blade-Diskussion in einem passenden Thread fortfahren? Danke! ;)
 
Wärt ihr so lieb und könntet die Blade-Diskussion in einem passenden Thread fortfahren? Danke! ;)

Hattest du bei dem Controller ein Raid-0 erstellt, bzw. warum war die Größe des Arrays nur 20GB, hattest du nicht mal 2x 16GB SSD ?

Es ist jedenfalls sehr beeindruckend was die Karten mit dem sep. Controller leisten können, da dürfte eine Onboard Lösung von AMD o. Intel ohne Cache per Software scheinbar deutlich langsamer sein, und die CPU mehr belasten.
 
Ich musste in der Controller-Config nur von "Capacity Truncation 10G" auf "Disabled" umstellen. ;D
Komischerweise musste ich bei HDDs nichts umstellen - nur bei den SSDs. Wäre ja auch der Hammer gewesen, wenn ich nicht mehr als 20GB hätte, wo doch jedes GB so teuer ist.

Und ja, der Cache bringt verdammt viel. Hätte ich nicht gedacht.

@ [MTB]JackTheRipper

Ich hatte noch mal den GPU-Bench von Crysis gemacht. Da war AID 0 im Gegensatz zu einer SSD lediglich 5sek. schneller - also nicht sehr nennenswert. Den HL2/Lost Coast-Bench würde ich gerne machen, aber trotz De- und Neuinstallation ist das Spiel nicht mehr zum Laufen zu bewegen :( Da hat sich wohl durchs viele Testen was zerschossen. Naja, egal - ein Image hatte ich ja gemacht. WIN-Sart kann ich mir eh schenken, da sich der Controller ja immer initialisieren muss. Ist mir aber nicht besonders wichtig.
Sehr brutal ist die Entpack-Leistung (FC-Test) oder das Kopieren vieler, kleiner Dateien INNERHALB des AID 0-Arrays. Dazu hatte ich wieder den Ordner "dllcache" 10 x verschachtelt in einen Ordner kopiert (ca. 20.000 Minidateien) und diesen Ordner dann in einen anderen Ordner kopiert. Was soll ich sagen? Solange der 256MB-Cache nicht voll ist, rauschen die Dateien mit ca. 100MB/sek. in den anderen Ordner. Wie gesagt - INNERHALB des Arrays... ;D
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten