Solid State Drive (SSD) - Sammelthread V2.0 (FAQ/Links in Post1)

nein, es ist nicht das gleiche. um bei deiner analogie mit dem medikament zu bleiben: der pharmakonzern hat das medikament auf den markt gebracht, es gibt probleme damit und nur ein kleiner bestandteil der patienten wird das überarbeitete medikament verabreicht, die anderen müssen weiter das alte medikament nehmen - trotz der probleme.
 
Wie man das noch verteidigen kann ist mir ein Rätsel, dazu noch was der eigentliche "Bugfix" da macht und das die 840 gar nicht betrachtet wird obwohl die laut Usern das Problem auch hat. Sprich der Umgang von Samsung in diesem Fall. Aber was meint man sich alles als Marktführer erlauben zu können.

Ich wollte die Software mir nur mal selber ankucken, ich habe keine TLC SSD und bin da bisher auch heilfroh drüber. Diese Technik zu meiden war alles andere als ein Fehler bisher.
 
der pharmakonzern hat das medikament auf den markt gebracht, es gibt probleme damit und nur ein kleiner bestandteil der patienten wird das überarbeitete medikament verabreicht, die anderen müssen weiter das alte medikament nehmen - trotz der probleme.
Wenn es Probleme gibt, wird das Medikament hoffentlich niemandem verabreicht, aber er wird sie eben nur einer kleinen Gruppe verabreichen, weil man eben niemals wissen kann, ob es Probleme gibt bevor nicht eine Menge Leute es ausprobiert haben. Aber damit eben nicht gleich eine Menge betroffen sind, gibt man es erst wenigen, denn mehr Leuten und erst dann der Allgemeinheit.

Damit ist das versucht auch Samsung offenbar mit dem FW Update, daraus gleich ableiten zu wollen, dass die FW ein Problem hätte und Samsung das schon wüsste, ist totaler Blödsinn. Wenn das der Fall wäre, hätte man das FW Update überhaupt nicht in den Download gestellt.

eratte, die 850 Evo ist ja nicht betroffen, obwohl sie auch TLC NAND hat. Das Problem ist ja nicht wie viele Bit pro Zelle gespeichert werden, also wie viele Ladungszustände man unterscheiden muss, sondern wie viele Elektronen den Unterschied zwischen den Ladungszuständen ausmachen. Das sind beim TLC mit seinen großen Zellen um mindestens eine Zehnerpotenz mehr, daher kann man dort viel leichter auch 8 statt nur 4 Landungszustände unterscheiden. Das Problem ist eben, dass die 840 und vor allem die 840 Evo mit dem planaren NANDs sehr kleine Zellen haben, bei noch kleineren Zellen wird das Problem auch bei MLC auftreten, wenn die FW die Landung nicht regemäßig auffrischt.
 
Tja, das sich Marktführer allerhand erlauben ist nicht neu.

Das solche Gebährden aber verteidigt werden weil Samsung ja nur an das Wohl der Kunden denkt ... naja ... wenn Intel den kleinsten Fehler macht fallen alle darüber her, bei Samsung ist der Käufer wahrscheinlich selbst schuld an allen

Gut das mich TLC aufgrund der unverschämten Samsung-Preise nie interessiert hat
 
kannst du es nicht verstehen oder willst du es nicht verstehen?

samsung hat ein defektes produkt auf den markt gebracht, DAS ist das medikament. das firmwareupdate ist ja nur der hotfix.

das wäre nicht nötig, wenn sie von anfang an ein fehlerfreies produkt auf den markt gebracht hätten.
 
Defekte SSDs sehen anders aus, Du hast wohl noch keine gehabt und jede neue FW Version ist wie jede neue HW oder jede neue SW (Version), auch jeder Windows Hotfix wie ein neues Medikament, weil es eben mit Risiken behaftet ist die man vorab nie ausschliessen kann. Wenn man aber eine neue HW rausbringt, dann hat man zumindest am Anfang den Vorteil, dass die Stückzahlen bei Verkaufsbeginn bekannt sind und man somit auch steuern kann, wie viele Kunden womöglich von Problemen betroffen sein könnten.

Und wer bei so komplexen Geräte wie SSDs ein von Anfang an fehlerfreies Produkt erwartet, der lebt in einer Traumwelt. Natürlich bemüht sich jeder Hersteller darum und Samsung ist das bisher wohl auch am Besten geglückt, auch ist der Fehler eben im Vergleich zu denen bei anderen SSDs wirklich hramlos, aber 100%ig kann das niemand schaffen. Schau Dir Autoindustrie an wie viele Recalls die machen müssen und dabei werden Recalls nur für sicherheitsrelevante Probleme gemacht, bei vielen anderen passieren die Korrekturen unauffällig in der Werkstatt beim Service. Auch da gibt es immer wieder Probleme mit Fehlern die erst nach längerer Zeit auffallen, wie Rost (bei fast allen Herstellern) oder auch den Kettenantrieben der Nockenwellen (z.B. bei Daimler und VW), da bekommt man dann mit Glück einen Teil auf Kulanz, wenn man denn artig alle Kundendienste beim Markenhändler gemacht hat. Also schraubt die Erwartungen runter und willkommen in der Realität.

Demnächst fordert noch einer von euch Intel müsse alle Haswell CPUs wegen der TSX Bugs kostenlos austauschen. Nein, das wird nicht passieren, die CPU funktioniert, nur ein neues Feature funktonierte nicht und muss daher deaktiviert werden und so ist es auch bei der 840 und 840 Evo, die SSDs funktionieren, nur eben u.U. langsamer. Also damals der FDIV-Bug beim Pentium war, da hat eine Basisfunktion der CPU falsch funktioniert und damals gab es einen Austausch und seidher werden alle Errata von Intel veröffentlich und wenn die alle immer so liest, wundert man sich das überhaupt etwas funktioniert. Aber so ist das eben, mit der Komplexität steigt die möglichen Fehlerquellen auch extrem an und damit auch die Zahl der nicht entdeckten Bugs.

Wie viele Hundert oder Tausend mögen noch in Windows stecken, wenn jeden Monat zahlreiche gefixt werden und das Bugfixing kein Ende nimmt? Trotzdem kann man damit arbeiten, Spiele und Surfen, welch Wunder.

--- Update ---

PS: Es scheint ja zwei Schritte zu geben, einmal die Änderung des Lesealgorithmus in der FW und das Refresh in Magician. Wenn man alleine weniger Samples mit unterschiedlichen Thresholds liest, erreicht man eine bessere Leserate ohne einen P/E Zyklus zu verbrauchen.
 
Man kann durchaus mal einen Fehler übersehen ... wenn es wirklich der Fall war. Vielleicht hat Samsung ihn entdeckt und dachte das es keiner merkt?

Dann kein Support für die normale 840, jetzt das Downloadlimit; eins der weltweit mächtigsten Konzerne kann den Ansturm nicht bewältigen?

Kann sich jeder selbst seine Gedanken dazu machen
 
Erinnert an dem Kanzleramt und der BND-NSA-Affäre. Alle (Kanzleramt/SSD-Hersteller) haben es gewußt aber gehofft das niemand was merkt.

Von Samsung bin ich geheilt, ich habe die 840 damals nur wegen des Preises und der Neugier geholt. Begeistert hat sie mich nie, da ich selten eine SSD dieser Größe hatte die beim Schreiben langsamer war. Magican fand ich auch ziemlich nervig, sofort wieder deinstalliert. Da nie ein Update kam und ich weder den Benchmark noch manuelles TRIM nutzte war mir mein System zu schade um es damit zu versauen.

Andere Hersteller zeigen außerdem das man auch Tools machen kann die man nur starten aber nicht installieren muß, finde ich deutlich besser

Es gibt meiner Meinung nach genügend Alternativen zu Samsung-SSDs, was soll also die Aufregung :)
 
Was regst Du Dich über ein Tool aus, welches Du nie gebracht hast? Auch die anderen Toolboxen sind meist nur für FW Updates wirklich sinnvoll, der Rest ist unnützer Bling-Bling oder gar Blödsinn wie diese OS Optimierungen, die auch Magician hat.
 
Ich würde behaupten, das um das 840 Evo "Problem" zuviel Wind gemacht wird. Ich hab selbst 2 840 Evos und konnte bisher im täglichen Betrieb keine Einbussen feststellen. Da wäre ein Totalausfall schlimmer als eine SSD, die über Monate hinweg etwas langsamer wird
 
Ich würde behaupten, das um das 840 Evo "Problem" zuviel Wind gemacht wird. Ich hab selbst 2 840 Evos und konnte bisher im täglichen Betrieb keine Einbussen feststellen. Da wäre ein Totalausfall schlimmer als eine SSD, die über Monate hinweg etwas langsamer wird

Hab ich ja schon früher geschrieben: Bei mir macht das auch eigentlich keine Probleme bisher. Abgesehen davon, dass Samsung schon sehr albern ist, mit der Update-Verteilung jetzt.

Und ich denke dieses regelmäßige Neu-Schreiben im Hintergrund, wenn die Werte zu schlecht werden, das wird sicher bei jeder SSD gemacht (alle Speicherzellen haben früher oder später das Problem, dass die Werte schlechter werden). Hier gab es nur ein Problem mit den Algorithmen. Aber dadurch muss sich nichts an der garantierten Lebensdauer ändern, da das Neu-Schreiben ehh eingeplant ist.
 
Seit der Sache mit der V300 ist Kingston eigentlich vom Empfehlungsradar verschwunden.

Sollten nicht bald Seagate mit SF kommen?
 
Die angekündigten SF3700 Controller von Sandforce sind immer noch nicht auf dem Markt - ich habe da jedenfalls nichts neues dazu mitbekommen.
 
Sind die dann vielleicht Seagate-exklusiv?

Von LAMD hört man auch nicht mehr viel seit die von SK Hynix gekauft wurden
 
Die angekündigten SF3700 Controller von Sandforce sind immer noch nicht auf dem Markt
Wobei ich mich auch so langsam frage, wo der sich am Markt noch positionieren soll. Der hat ja nur SATA 6Gb/s und PCIe 2.0 x4, wobei x4 nur für die besseren Modelle und x2 für die normalen Heimanwendermodelle vorgesehen sind. SATA SSDs werden schon jetzt immer mehr in das Budgetsegment verdrängt, PCIe 2.0 x2 lohnt sich vorne und hinten nicht, da gehen gerade so 200MB/s mehr als an SATA 6Gb/s und PCIe 2.0 x4 ist seid Erscheinen der Intel 750 und Samsung SM951 mit je PCIe 3.0 x4 nun auch mehr der Bringer, der es vor einem Jahr gewesen wäre. Marvell und Phison haben ja auch schon PCIe 3.0 x4 Controller vorgestellt, da muss Sandforce also nachlegen oder man wird keine Premiumpreise verlangen können.

Außerdem zeigt auch der Test der SM951 bei CB das selbst die SM951 noch ein Temperaturproblem bekommen kann, wenn man nicht auf die Lüftung achtet, bei der XP941 war das wohl noch krasser und Samsung hat meines Wissens beim SM951 gegenüber dem XP941 ein anderes Fertigungsverfahren verwendet. Der SF-3700 hatte ja von Anfang an ein Temperaturproblem, nur hat Seagate keine Fabs, anders als Intel und Samsung und auch keine großen Volumen bei Fertigern, wie z.B. Marvell. Es wird also nicht so leicht werden kurzfristig Kontingente moderner Fertigungsverfahren zu bekommen. Schauen was da kommt und vor allem wann und ob was kommt.

Bei Phison bin ich aber immer vorsichtig, da Phison eine "Datenkompression" hat die nur bei extrem komprimierbaren Daten wirkt, also nur wie eine Benchmarksoptimierung wirkt. Da muss man also immer auch auf die Werte mit nicht komprimierbaren Daten achten.
 
Habe auch auf Grundlage der aktuellen c't den Punkt 1.3.2 NVMe im Startpost hinzugefügt.
 
Wahrscheinlich mit einem Tool das alle Daten liest und neu schreibt. Das sollte man dann alle 8 Wochen machen
 
Interessant (und nochmal schwarz auf weiß, was ich vor einiger Zeit bereits erwähnt habe):

SSD-Lagerung und Temperaturen

SSDs sollten heiß betrieben und kalt gelagert werden: Das steigert die Lebensdauer der Daten mitunter erheblich.

[...]

Dennoch, als Archiv-Medien sind SSDs definitiv unbrauchbar, möglichst also gar nicht stromlos lagern und wenn, dann eben sehr kalt. Im normalen Betrieb ohne längere Pausen sind SSDs ansonsten laut Datenrettungsfirma Kroll Ontrack nicht unzuverlässiger als normale Festplatten.
 
Dieser Neutron-Test ist nicht so doll, auch wenn die SSD nicht übel aussieht. Der Phison scheint gelungen, aber der Preis ist mir einfach zu hoch
 
Es gibt eine neue Version von AS SSD, falls es jmdn. interessiert.
 
Wo denn? auf der Homepage ist unter Download 1.8.5608.42992 vom 05/12/2009.
 
Zurück
Oben Unten