News AMD mit Radeon R7 SSD auf OCZ-Basis?

Die größten Posten bei einer SSD sind sicher die Gemeinkosten, wie Fabrik errichten und betreiben, Angestellte, Pensionen, Schulden, Forschung & Entwicklung.
Die reinen Bauteilkosten sind sicher untergeordnet im Gesamtpreis.
Um nichts anderes ging es mir aufzuzeigen.
 
Ein NAND Hersteller wie Samsung kann sich buchhalterisch auch nicht andere Preise machen als die, welcher er nach draussen gibt. Denn dort muss er ja all die Kosten die tomturbo aufgezählt hat im Preis berücksichtigen. Die Unternehmensteile sind auch nicht integriert, da die Fabs andere Unternehmen sind und völlig andere Investoren haben als dann die SSD/PC-Komponenten Produktion. Es gibt dann einiges wo ein Label-Hersteller Kosten sparen kann da er eben keine anderen PC-Komponenten herstellt und somit auch andere Kostenstrukturen hat.

Einfach mal überlegen wie man den Aktionären erklären soll, dass eine Schwestergesellschaft weniger zahlt: http://www.samsung.com/de/aboutsamsung/samsung/affiliatedcompanies.html

Diese Art beschriebener Synergieeffekte gibt es nicht in der Produktion. Die wirken sich eher in reduziertem Personal nach übernahmen oder Know-How Transfer aus und natürlich vor allem darin nicht abhängig zu sein vom Weltmarktpreis und eine gesicherte Versorgung zu haben. Lable-Hersteller müssen mit Lieferstopp rechnen wenn die anderen bevorzugten Tochterunternehmen alle verfügbaren Teile aufkaufen. Aber die NAND Produktion will die Gewinne maximieren und nicht die Samsung Electronics Aktienkurse beleben. Ansonsten können sie ihre Fertigung bald zu machen bei den enormen Investitionskosten und Kreditlinien von Banken die man für Fabs benötigt.

Man stelle sich diese Argumentation mal bei LED-TVs vor, wo ja mittlerweile Sony Samsung Displays einbaut. Na da würde jeder einen Vogel zeigen bei der Behauptung dass Sony nur schlechtere Displayqualität erhalten würde wenn sie den selben Preis zahlen wollen.
 
Zuletzt bearbeitet:
Bloß hinkt eure Argumentation an einigen Stellen. Zum einen dadurch, dass sich bei NAND Flash noch lange Marktsättigung abzeichnet. Es wird nicht auf Halde produziert und die Nachfrage steigt sogar noch immer weiter an. Vor allem durch den Boom an mobilen Geräten, insbesondere von Smartphones. Die Preise sind durch neue Fertigungsverfahren zwar einem steten Verfall ausgesetzt, aber noch immer können die Hersteller munter die Preise diktieren, weil sie am längeren Hebel sitzen. Es gibt zur Zeit keinen zermürbenden Verdrängungswettbewerb, wie er in der DRAM Fabrikation eingetreten ist; dort teils durch staatliche Einmischung. Und wenn die Nachfrage sehr groß ist, können die höchsten Qualitätsklassen für den Eigenbedarf reserviert werden. Das soll man bei eMLC beobachten können. Zum anderen sind die Global Player häufig diejenigen, die ihre Mitarbeiter am meisten ausbeuten. Wer glaubt Samsung würde seine Arbeiter viel besser behandeln als zum Beispiel Foxconn macht sich etwas vor. Und dann gibt es noch so etwas wie Quersubventionierung. Oft wirft die Storage Sparte keine großen Gewinne ab und benötigt finanzielle Mittel aus anderen Unternehmensteilen. Das war schon damals so, als Spansion noch zu AMD gehört hat. Schlecht für den Hersteller und die Mitbewerber, aber gut für den Verbraucher. Außerdem ist es so, dass wenn ein 3rd Party Hersteller NAND Flash einkauft, er natürlich die Kosten für die Fabs, R&D, ect. anteilig über den Kaufpreis mitträgt, weil sie auf ihn umgelegt werden.
 
Zuletzt bearbeitet:
Du hast zwar behautet dass unsere Argumentation hinkt, doch ich sehe nicht wo du das belegt hast. Marktsättigung und Boom eines Marktes ändert nichts an dem was ich schrieb. Der Kampf ist ebenso hart und ist derzeit eher ein Überlebenskampf der schnell auch grosse Hersteller treffen kann wenn er auf das falsche Pferd in der Entwicklung setzt. Im gesättigten Verdrängungsmarkt dauert es länger bis man gravierende Anteile verliert.
Wer glaubt Samsung würde seine Arbeiter viel besser behandeln als zum Beispiel Foxconn macht sich etwas vor. Und dann gibt es noch so etwas wie Quersubventionierung. Oft wirft die Storage Sparte keine großen Gewinne ab und benötigt finanzielle Mittel aus anderen Unternehmensteilen.
Und genau diese Quersubventionierung ist die einzige Möglichkeit für diesen Grossen Hersteller, welche 3rd Party Hersteller nicht haben (ausser sie haben eben auch mehrere Sparten in denen sie aktiv sind.) Und dieser Quersubventionierungsvorteil wirkt sich nicht wegen eigener NAND Produktion aus, sondern durch die schiere Konzerngröße. Würde IBM ins 3rd Party NAND Geschäft einsteigen hätten sie die selben Möglichkeiten, ohne einen einzigen NAND produzieren zu müssen. Nur wirkt sich diese nicht auf die Qualität und den Preis der NAND Zellen eines 3rd Party Herstellers aus. Warum sollten sie?
 
Zuletzt bearbeitet:
Wird die Firmware nicht wie ein Bios in einem EEPROM abgelegt sondern auf den NANDs? Dann wäre ja jede SSD die ungenutzt im Schrank liegt ein potenzieller Todeskandidat, früher oder später.
Glaubst Du die Erbsenzähler der Hersteller würde ein extra Chip für die FW spendieren, wenn der ganze Controller gigabyteweise nicht flüchten Speicher verwaltet? Das EEPROM würden nur unnötige Kosten verursachen und Platz wegnehmen. Selbst HDDs haben ihre FW teils auf der Platte stehen.

@NicoOCZ
könntest du bitte mal einen Kommentar zu diesen Statistiken abgeben, die hier immer wieder von ein und der selben Person gepostet werden?
Das würde mich auch freuen, aber das darf er sicher nicht, denn wenn, dann geben Hersteller und deren Mitarbeiter nur 0.0% (wie es der Mitarbeiter von AData bei CB mal getan hat) oder 0.1% (wie Intel) an. Dumm nur, dass auch Mindfactory RMA Quoten angibt und dort keine der AData SSD die in größeren Stückzahlen (also deutlich über 100) verkauft worden war, bei 0% lag.

lies dir aber mal diesen Thread zuvor durch der bei CB schon zu diesem Thema alles enthält:
http://www.computerbase.de/forum/showthread.php?t=1381538&page=7
Vielen Danke,dass du die Rahmenbedingungen der Statistik nochmals zitiert hat. Dann übersetz ich mal auf Deutsch und es kann sich ja jeder ein Bild machen ob er mit diesen Statistiken wirklich technische Aussagen über Produkte treffen möchte:
•Erfasst werden nur Rückläufer die 6-12 Monate nach Kauf zurück geschickt weden.
Nein, da steht doch klar: "zwischen dem 1. April 2013 bis 1. Oktober 2013 verkauft, für die Rückkehr vor April 2014 oder 6 Monate bis 1 Jahr Betrieb" Wobei 6 Monate eigentlich falsch sein müssten, denn dann dürfte eine im September 2013 gekaufte HW kaum in der Statstik erscheinen, außer sie wird im März reklamiert, aber nicht wenn sie im Januar schon zurückkommt. Das kann ich mir aber kaum vorstellen. Ich würde eher bei den Daten bleiben und davon ausgehen, dass diese bedeuten, dass die Statstik für Produkte gilt, die eben maximal ein Jahr nach Verkauf reklamtiert wurden, ohne eine Mindestzeit anzunehmen.
•Also keine Erfassung von Problemen bei Erstinstallation und innerhalb des Rückgabezeitraums von 14 Tagen..
S.o.! Außerdem wir die 14 Tage Rückgaberecht dabei ja nicht erfasst, es ist klar gesagt, dass allgemeine Rücksendungen nicht erfasst werden, nur solche bei denen ein Defekt die Ursache ist. Die allgemeine Rücksendequote im Onlinehandel wären weitaus höher, die liegt bei Elektronik bei über 10%.
•Unter den zurück geschickten Komponenten die nicht getestet werden sind einige dabei die vom Kunden als fehlerhaft deklariert weden .jedoch tatsächlich keinerlei Defekte haben. (steht genau so im Text!) Sie werden trotzdem gezählt, da es um Rücksenderaten geht und nicht um Ausfälle!.
Im Text steht, dass die Produkte entweder aufgrund der Beschreibung des Kunden oder eines Tests durch eine Techniker als defekt eingestuft werden. Da es bei SSD (und HDDs) ja nicht schwer ist diese zu Testen, da reicht eine Dockingstation, dürfte die Tests dort wahrscheinlicher sein als z.B. bei Mainboards, wo der Aufwand für einen Test schon deutlich höher liegt.
•Erfasst sind die Jahre 2010, 2011 und 2012. Interessant wie auf dieser Basis die GPU Statistik zusammen kommt mit Modellen die da noch gar nicht auf dem Markt waren. Die erste Kepler kam im März 2012 auf den Markt und ist somit überhaupt nicht im Zeitraum der Statistik vertreten, da diese im Oktober 2012 endet (und die ersten 6 Monate werden ja nicht erfasst). Alle anderen Karten sind sogar noch später erschienen..
Nein, sind sie nicht! Der englich Text aus dem der Troll bei CB dies übersetzt hat, ist schon älter und stammte von der englichen Seite, die inzwischen aufgegeben wurde. Da die Statistk alle halbe Jahr erscheint, verschiebt sich der Zeitrum natürlich jedes mal um ein halbes Jahr. Die konkreten Zeiträume stehen immer auf der ersten Seite . Die sollte sich jeder hier auch im
Original übersetzen lassen, auch wenn das Deutsch dann es sehr holprig ist.

Das hat der Troll auch nicht gemacht und dann die eigenen Fehler und die eigene falschen Erwartungen an die Statstik als nicht zutreffend erkannt um damit die Statistik im ganze als falsch abzustempeln. Das ist typsiches Verhalten von Trollen: Sie versuchen aus einer Statstik etwas abzulesen, was diese nicht aussagt und machen dann alles nieder, weil sie klarstellen, dass dies dort nicht ausgesagt wird.

Natürlich wären offizielle Zahlen wünschenswert, aber die gibt es nciht. Es besteht keine staatliche Meldstelle für Ausfälle von Computerhardware und keine Meldpflicht für solche Ausfälle. Das finde ich auch sehr schön, Bürokratie gibt es schon zu viel. Daher müssen wir mit den Zahlen leben die wir haben und das ist wenig genug. Herstellerangeben zu trauen, ist eben nun einmal keine Alternaitve. So unvollkommen die Statstik also auch sein mag, die Reklamtionen direkt an die Hersteller werden nicht erfasst und das wird ja bei den neuen OCZ und auch der AMD dank der neuen "Shield Plus Warranty" sicher öfter vorkommen. Damit dürfte OCZ denn, wenn sie künftig genug Absatz haben um dort zu erscheinen, in der Statstik weiter nach oben rücken. Für alle Kritiker der Statistik vielleicht ein Trost, vielleicht hat die ja auch eine Rolle gespielt bei der Entscheidung diese Garantieabwicklung so anzubieten.
Natürlich hat tomturbo recht. Du hast keine Ahnung worüber du schreibst.
Die pauschale Aussagen "es vielfach in Summe günstiger sich einen spezialisierten Dienstleister zu nehmen als eine Dienstleistung intern zu vergeben" mag stimmen, aber nicht auf die Massenproduktion von Speicherchips. Sonst hätten die NAND Hersteller keine Fabs und würde andere ihre Chips fertigen lassen, nur machen das die großen eben nicht, denn Intel, Micron, Hynix, Sansung, SanDisk und Toshiba haben alle eigene Fabs, auch wenn diese teilweide in Joint Ventures für die NAND Feritigung eingebracht sind (Micron, SanDisk, Toshiba). Die Praxis widerlegt also seine Aussage für diesen konkreten Fall um den es geht uind solange Du nicht Belgen bringen kannst, dass die NAND Hersteller auch bei Auftragsfertigern NANDs in nennenwerten Stückzahlen fertigen lassen, bleibe ich dabei und leider erwidern, dass Du selbst nicht mehr Ahnung als tomtom hast.

Nun ich würde mittlerweile behaupten dass Haswell ein Kompatibilitätsproblem hat. Ist ja nicht das erste Problem damit. Auch bei USB 3.0 waren bestimmte Hersteller nicht kompatibel. Hat Intel Probleme Standards einzuhalten?
Belege? Leider sind die alten Einträge im OCZ Forum wohl weg, aber sie werden ja auch anderswo zitiert:
Auf deutsch, mit Englisch scheinen viele Probleme zu haben: Bei stand man früher klar, dass die Sandforce der ersten Generation nicht mit Haswells strenger Auslegung der Regeln der SATA Norm kompatibel ist. Frühere Chipsätze haben ein Auge zugedrückt und Haswell macht das nicht mehr, daher laufen die alten SF damit nicht mehr problemlos. Nun sollte Intel schuld sein, dass sich Sandforce bei seinem Erstlingswerk nicht genau an die Regeln gehalten hat? Also bitte, so nun nicht.

Die USB3 Inkompatibilitäten liegen auch nicht an Intel, da ist die externe HW schuld. Das Problem ist, dass viele frühe USB Controller, auch Host Controller, nur mit der Version 0.96 der xHCI Norm konform sind, also dem Draft (Entwurf) der Norm. Die finale 1.0 hat dann weitere Energiespar-States (UX-States) bekommen und ist das Problem. Intel USB3 Host Controller war von Anfang an xHCI 1.0, die populären NEC µPD720200(a) waren aber nur xHCI 0.96. Das kann man leider nur noch hier im webarchive nachlesen. Da steht auch, welcher Norm die ersten AMD USB Host Controller entsprochen haben.

Und würdest du mir mal erklären was sync-faking ist? Hast du das als Begriff erfunden? Denn wenn ich google finde ich immer nur Beiträge von dir in diversen Foren wie bei CB z.B.

Also, was ist sync-faking?
Das Du da nichts findest, überrascht mich nicht wirklich, auf deutsch wird es da wohl wenig geben:
http://peter-zaitsev.livejournal.com/12639.html
Hier noch einer
Programmierer nennen es auch fsync-faking, weil die C-Standardfunktion fsync für das Leeren des Caches verwendet wird, bei Linux (und auf sysinternals auch für Windows) ist sync aber ein Befehl um das Leeren von Schreibcaches des Systems und auf den Laufwerken auszulösen. Aud SATA Ebene wären das die Befehle FLUSH CACHE - E7h oder FLUSH CACHE EXT - EAh (bei Laufwerken die 48bit Adressierung unterstützen) und das darf maximal 30s dauern.

Das Faken besagt, dass der Befehl sofort als ausgeführt behandelt wird, ohne die Daten wirklich auf die Datenträger zu schreiben und es kommt von den RAID Controllern mit BBU, die einen Datenverlust auch bei plötzlichen Stromausfall nach Ende des Befehls wegend der BBU meiden können (eine Zeitlang wenigstens). Da ist das dann auch erlaubt. SSDs machen das aber auch, die SF der ersten Genertion hatten das auch, nur haben die keine Stützkondensatoren, zumindest nicht die Consumerversionen und damit ist es dann eben nicht "erlaubt" bzw. wird eben u.U. problematisch, weil der Rechner denkt, ob die Daten sind geflust, der Strom kann aus. In Benchmarks bringt das auch viel, weil diese eben wie reale Programme auch oft am Ende ein fsync absetzen und dann erst nach dessen Ende die Timer stoppen. Wird das sync gefakt, ist die Schreibrate im Benchmark natürlich höher.

Die größten Posten bei einer SSD sind sicher die Gemeinkosten, wie Fabrik errichten und betreiben, Angestellte, Pensionen, Schulden, Forschung & Entwicklung.
Die reinen Bauteilkosten sind sicher untergeordnet im Gesamtpreis.
Um nichts anderes ging es mir aufzuzeigen.
Jetzt redest Du von der SSD und nicht vom NAND oder der Entwicklung wie vorher, aber gerade ist das total falsch. Die meisten SSD Hersteller nutzen ja Fremdfertiger, nur die großen wie Intel, Micron und Samsung bauen normalerweise ihre SSDs selbst. Aber der größten Kostenfaktor ist das NAND, außer bei den ganz kleinen Kapazitäten vielleicht, aber ab 240GB dominiert das NAND die Herstellungskosten eindeutig und der Rest geht dagegen unter. Forschung und Entwicklung machen ja viel kleine Drittanbieter sowieso nicht, die kaufen Fertiglösungen aus Kontroller, FW und Referenzdesign ein, früher vor allem von Sandforce und inzwischen mehr von anderen Herstellern wie SMI.


Ein NAND Hersteller wie Samsung kann sich buchhalterisch auch nicht andere Preise machen als die, welcher er nach draussen gibt. Denn dort muss er ja all die Kosten die tomturbo aufgezählt hat im Preis berücksichtigen.
Er hat aber geschrieben "Die größten Posten bei einer SSD", wenn Du das auf die Kosten der NAND Herstellung beziehst, so ist da F&E ein großer Posten, ebenso die Abschreibung auf die Anlagen und die Wafer und Dotierungsstoffen fallen nicht sehr ins Gewicht. Das sind dann die NAND Kosten, nicht die SSD Kosten auf die er sich bezieht, dass sind zwei unterschiedliche Paar Schuhe und eine NAND Fabrik kann man nicht mal eben so errichten und betreiben, wenn man die Technologie und Patente nicht hat. Die haben eben nur wenige Firmen.
Die Unternehmensteile sind auch nicht integriert, da die Fabs andere Unternehmen sind und völlig andere Investoren
"völlig andere Investoren"??? Das sind Tochterfirmen, das steht doch da. Da bestimmt die Mutter alles und kann die eine Tochter zwingen der anderen die Produkte für ein Apfel und ein Ei zu verkaufen und macht das auch, wenn das steuerlich besser ist. Was meinst Du, warum Firmen wie Starbucks praktisch keine Steuern zahlen? Die haben in einem Stuerparadies (z.B. Cayman Islands) eine Tochter und die zwingt die anderen Töchter, wie Starbucks Deutschland (oder wie die auch immer heissen) eine horrendes Lizenzgebühr für die Nutzung des Logos in den Filialen und auf den Bechern zu zahlen. So viel, dass die Töchter die den Kaffee wirklich verkaufen, praktich keine Gewinne mehr machen, die fallen dafür alle im Steuerparadies an.

Quersubventionen sind aber auch aus anderen Gründen oft zu finden, bei Tintenstarhldruckern sind/waren (habe schon lange keinen mehr) Gang und Geben, da wurde der Drcuker fast verschenkt, aber nur mit wenig Tinte in der Partone und an den Patronen wurd das Geld dann verdient, auch über Tochterfirmen eines Konzerns hinweg.
Einfach mal überlegen wie man den Aktionären erklären soll, dass eine Schwestergesellschaft weniger zahlt: http://www.samsung.com/de/aboutsamsung/samsung/affiliatedcompanies.html
Was für Schwestergesellschaften? Ich sehe da nur Tochtergesellschaften und das ist was ganze anderes, die gehören einem Konzen, ganz oder zu einer großen Mehrheit. Selbst wenn es noch fremde Minderheitseigenes gibt, wie etwa bei Audi, wo es noch ein paar fremde Aktionäre neben VW gibt, dann werden diese i.d.R. entsprechend großzügig abgefunden und man rechnet solche Effekte bei der Bestimmung der Ausschüttungen dann heraus. Und wenn nicht, können die auch nicht viel machen die Mehrheit hat eben ein anderer und wer die Mehrheit hat, bestimmt.

Aber die NAND Produktion will die Gewinne maximieren und nicht die Samsung Electronics Aktienkurse beleben. Ansonsten können sie ihre Fertigung bald zu machen bei den enormen Investitionskosten und Kreditlinien von Banken die man für Fabs benötigt.
Komisch nur, dass ausgerechnet Samsung weder seine TLC noch die V-NANDs außer Haus verkauft und schon lange keine SSD eines Drittanbieters mehr mit Samsung NANDs erscheinen ist. Gerade Samsungs Halbleiterfertigung hat klar das Ziel die anderen Ableitungen zu beliefern und weniger die Aufgaben an Endkunden zu verkaufen. Stand mal in einem der letzten Geschäftsberichte, die findet man im Internet, muss mal selbst suchen.

Auch Micron hat über ein Jahr lang die 128Gigabit 20nm MLCs NANDs aus der m500 nicht einzeln angeboten und jetzt gibt es auch die 16nm nur in den Crucial MX100 SSDs zu kaufen. Neben dem reinen Verkaufen spielen eben immer auch strategische Überlegungen eine Rolle und die zielen auf die Steigerung der Marktposition auf dem SSD Markt, zumindest bei Samsung, Micron und Intel (die auch schon länger keine NANDs aus ihrem Anteil von IMFT mehr einzeln verkaufen), da lässt sich mehr verdienen als nur mit dem Verkauf von NANDs.

Man stelle sich diese Argumentation mal bei LED-TVs vor, wo ja mittlerweile Sony Samsung Displays einbaut. Na da würde jeder einen Vogel zeigen bei der Behauptung dass Sony nur schlechtere Displayqualität erhalten würde wenn sie den selben Preis zahlen wollen.
Der Markt für Displays ist ein anderer als der für NAND, das kann man nicht 1:1 übertragen und wenn Samsung eine Chance hätte statt eines Displays an Sony den Fernsehr an den Endkunden zu verkaufen, würden sie das sicher vorziehen.

Es wird nicht auf Halde produziert
So ist es und vor ein paar Jahren war das noch anders, da wird Micron froh wenn Intel möglichst noch mehr NANDs aus der gemeinsamen Fertigung abgenommen hat und Intel hat die an andere SSD Hersteller weiter verkauft, jetzt kauft Intel schon bei Hynix zu, weil Micron selbst Intel nicht mehr als vertraglich zugesichert abgibt und die NANDs in eigene SSDs gehen. Die MX100 hat ja teils enorme Lieferprobleme, so gut verkauft die sich.
Es gibt zur Zeit keinen zermürbenden Verdrängungswettbewerb, wie er in der DRAM Fabrikation eingetreten ist
Das ist ja auch schon vorbei, schau Dir an wie die Preise von RAM wieder gestiegen sind.
Und wenn die Nachfrage sehr groß ist, können die höchsten Qualitätsklassen für den Eigenbedarf reserviert werden. Das soll man bei eMLC beobachten können.
Eben, die Preis kannn man sich auf dramexchange ansehen, zumindest die am Spottmarkt, wobei die Unterschiede (64Gigabit (8GiB) von 2,57 bis 3,97 natürlich unterschiedliche Typen und Qualitäten widergeben, das schwankt nicht an einem Tag für die gleichen NANDs so stark. eMLC ist da gar nicht dabei, dass gibt es wenn überhaupt nur direkt, da würde auch keiner einem Händler trauen, dafür ist zu viel gefälschte Ware auf dem Markt.
Außerdem ist es so, dass wenn ein 3rd Party Hersteller NAND Flash einkauft, er natürlich die Kosten für die Fabs, R&D, ect. anteilig über den Kaufpreis mitträgt, weil sie auf ihn umgelegt werden.
Natürlich, wenn Du ein Auto kaufst bezahlst Du ja auch nicht nur den Materialpreis der Teile, also Blech, Klack, Gummi etc.

---------- Beitrag hinzugefügt um 19:45 ---------- Vorheriger Beitrag um 18:57 ----------

Du hast zwar behautet dass unsere Argumentation hinkt, doch ich sehe nicht wo du das belegt hast.
Hast Du Deine Argumente irgendwo belegt? Da sehe ich auch nichts!

Marktsättigung und Boom eines Marktes ändert nichts an dem was ich schrieb. Der Kampf ist ebenso hart und ist derzeit eher ein Überlebenskampf der schnell auch grosse Hersteller treffen kann wenn er auf das falsche Pferd in der Entwicklung setzt. Im gesättigten Verdrängungsmarkt dauert es länger bis man gravierende Anteile verliert.
Umgekehrt wird ein Schuh draus, die Verdängung ist in einem gesättigten Markt viel härter als wenn ein Segment boomt. Schau Dir doch mal an, wie viele Anbieter es nach der Öffnung des Telefonmonopols gegeben hat und wie viele noch übrig sind. Oder wie viele Suchmaschinen es im Internet gab, soziale Netz (Orkut wird gerade dicht gemacht), etc. die alle nicht überlebt haben, weil die Platzhirsche sich den Markt aufteilen. Ob Marktsättigung oder Boom eines Marktes ändert also sehr, sehr viel, das Gegenteil zu behaupten ist schlicht Blödsinn und Belege dafür hätte ich gerne mal.

Die großen NAND Hersteller werden als SSD Hersteller überleben, von den anderen haben nur wenige eine Chance.
Und genau diese Quersubventionierung ist die einzige Möglichkeit für diesen Grossen Hersteller
Das ist doch wieder totaler Quatsch. Micron hat praktisch nur RAM, NOR und NAND sowie Produkte damit, also RAM Riegel, USB Sticks, Speicherkarten und SSDs, viel mehr bieten die nicht an, dafür aber auch Chips für spezielle Anwendungen von RAM, NOR, NAND und so Exoten wie PSRAM. Da subenvtioniert niemand quer, aber die Überlegung der Firma ist doch einfach: Was verdienen wird am Verkauf von NAND? Was verdienen wir, wenn wir die NANDs in eine SSD packen und diese verkaufen? Ebenso bei RAM, da ist Crucial ja inzwischen bei den Preisen auch recht agressiv am Markt, da ist es auch das gleiche, die RAMs als Chips zu verkaufen bringt weniger als wenn man sie auf Riegel lötet, ein SPD programmiert und dann RAM Riegel verkauft.

Beim RAM Riegeln hat Kingston hast 50% Marktanteil, obwohl sie keine Fab haben und keinen Chip selbst produzieren, die kaufen Chips oder Wafer und machen darauf die Riegel. Den Gewinn dabei kann Micron selbst einstreichen, machen doch die Chips die sie fertigen sowieso den Löwenanteil an den Kosten eines RAM Riegels aus und bei SSD machen die NANDs eben auch den Löwenanteil der Kosten aus, also fertigen sie lieber SSD statt anderen den Gewinn zu lassen, den sie erzielen wenn sie NAND einkaufen und damit SSDs bauen. Ist doch nur nachvollziehbar und da braucht keiner was zu subentionieren, da reicht es wenn eben auf die NANDs und auf die SSDs jeweils eine kleinere Marge berechnet wird als es üblich ist.

Kennst Du die Frima Méguin? Das ist die Frima die für Liqui Moly das Öl macht bzw. gemacht hat. Méguin hat vor 10 Jahren über 80% seiner Öle in Behälter mit der Aufschrift Liqui Moly abgefüllt und nur einen Bruchteil in solche mit dem eigenen Label Megol. Die Gebinde standen dann teils in den Märkten nebeneinandern, Megol für 24€ und daneben Liqui Moly für 36€, wenn nicht noch mehr. Die Leute haben trotzdem Liqui Moly gekauft, die kannten die Marke Megol nicht und wussten gar nicht, dass es genau das gleiche Öl war. Liqui Moly hat u.a. an den Ölen von Méguin so gut verdient, dass sie den Laden 2006 gekauft haben. Würden NAND Hersteller ihr Interesse alleine darin sehen so viel NAND wie möglich zu verkaufen, wie manches es hier meinen ohne es je belegt zu haben, könnte ihne das gleiche wie Méguin passieren, denn dann könnten andere an ihren Produkten eine goldene Nase verdienen.

Micron macht auch GDDR5 RAM, aber keine Grakas, da ist der Anteil der RAMs am Preis zu gering, dass würde sich sicher nicht lohnen.
Und dieser Quersubventionierungsvorteil wirkt sich nicht wegen eigener NAND Produktion aus, sondern durch die schiere Konzerngröße.
Die macht die Skaleneffete und die sind gerade bei einer Massenfertigung wo F&E und die Einrichtung der Fertigungsanlagen so teuer sind, nicht zu unterschätzen. Auch bei der SSD Entwicklung entstehen nicht unerhebliche Kosten, deren Anteil natürlich umso weniger ins Gewicht fällt, je mehr SSDs dann auch gefertigt werden. Die scheire Größe macht es auch Herstellern wie Micron möglich die Crucial SSDs so günstig anzubieten und trotzdem gute Gewinne einzufahren, denn Micron geht es im Moment gut.

Wer sich die Zahlen von OCZ angechaut hat, die waren zwar gefakt wie man nun weiß, aber die haben immer eine ganz stattliche Bruttomarge ausgewiesen, Einkauf und Fertigung haben also weit weniger gekostet als die Produkte erlöst haben. Ins Minus ging es immer erst, wenn die anderen Kosten wie F&E, Marketing, Verwaltung etc. davon abgegangen sind.
Nur wirkt sich diese nicht auf die Qualität und den Preis der NAND Zellen eines 3rd Party Herstellers aus.
Was sind denn bitte die "NAND Zellen eines 3rd Party Herstellers"? Die stellen keine NAND her, haben also keine NAND Zellen und wenn sie welche wollen, müssen sie welche einkaufen und da werden die NAND Hersteller oder -händler eben die Preise schon entsprechend der Qualität gestaffelt anbieten, das ist doch logisch. Gäbe es eMLC und Schrottqualitäten zum gleichen Preis, würden sie den Schrott ja nie los werden, den Micron übrigens auch über die Tochter Spectek selbst verkauft.
 
Zuletzt bearbeitet:
OMG. Ehrlich gesagt bin ich etwas geschockt von deinem Antwortbeitrag. Jeden Satz zerpflücken zeugt von wenig thematischer Konsistenz, daher versuche ich hier kurz mal einige Antworten auf meine gestellten fragen zu kommentieren.

Der englische Text in dem CB Beitrag den der dortige Troll übersetzt hat waren deine eigenen Quellenangaben und Zitate im dortigen Thread, daher sind deine Ausführungen hier dazu wenig glaubwürdig, da ich deinen dortigen Diskussionsstil gelesen habe. Hier streitest du das ab und sagst der andere hätte falsche Quellen geliefert. Dabei bist du dort einfach widerlegt worden weil du falsche Quellen benutzt hast, was du scheinbar gemerkt hast wie du hier schreibst.

Warum du das Wort sync-faking erfindest um damit das gebräuchliche und schon lange bekannte write cache absetzen zu beschreiben ist unklar und auch warum du so umständlich das alles beschreibst (eigentlich nur um deinen erfundenen Begriff zu beschreiben) um dann im SSD Kontext lediglich unbewiesen zu behaupten:
"Wird das sync gefakt, ist die Schreibrate im Benchmark natürlich höher." Ist das eine Theorie oder was soll das sein und wo wird das praktiziert?

Wenn ein Konzern 5 Töchter untereinander hat, wie stehen dann diese im verhältnis zueinander? Man nennt es Schwester Unternehmen. Alle Samsungtöchter sind zueinander in diesem Verhältnis. Ein Mutterkonzern hat nicht zwangsläufig die 100% Mehrheit, wie du ja auch selbst gesagt hast dass es einige Joint Ventures gibt. Und ein Mutterkonzer kann vieles bestimmen, doch ganz sicher nicht dass eine Tochterfirma der anderen Tochterfirma Produkte zu einem niedrigeren Preis verkauft als einem Konkurrenten. Das ist illegal, es gibt auch für die Wirtschaft Gesetze. Und Samsung und die anderen betreiben NAND Fabs ganz sicher nicht primär dafür damit sie günstiger SSDs bauen können als andere, sondern um 10x soviel NAND abzusetzen als sie alleine in eigenen Produkten verkaufen könnten, da die Fabs Schweineteuer sind. Selbst Intel die Ihre IP nicht gerne aus der Hand geben müssen als Auftragsfertiger agieren mittlerweile, um die nächsten Fabs noch finanziert zu bekommen. Nur wer kauft deine NANDs wenn Micron besser ist? Hier sorgt die Konkurrenz unter den NANDs schon dafür dass deine Theorie völlig selbstmörderisch wäre, natürlich zusätzlich zu den Gesetzen die so etwas regeln. Das Samsung<->Sony Beispiel zeigt ganz deutlich deine fehlerhafte Logik. Denn ist das nicht 1:1 gleichzusetzen, dann sind eben doch andere Faktoren als die von dir genannten wichtiger. Denn das Zulieferer Verhältnis ist ist bei beiden Beispielen gleich und du behauptest die Märkte würden sich dennoch völlig anders verhalten. Dann kann aber die Ursache für dieses Verhalten nicht die gemeinsame Eigenschaft sein. Entweder oder, du widersprichst dir also. Und Samsungs NAND wird ja nicht nur für SSDs produziert. Der viel größere Anteil landet in Smartphones, RAM oder in Controllern. Und hier ist nicht der neueste und fortschrittlichste NAND, den Samsung natürlich zuerst in seinen Produkten einige Zeit exklusiv verbaut (nicht beliefern der Konkurrenten ist erlaubt, aber beliefern zu Dumpingpreisen erlaubt das Kartellamt nicht), sondern bewährte Technologie die günstig ist.

Ich kann sehen warum du von manchen Dingen überzeugt bist, doch einige Male nimmst du einfach die falsche Abbiegung in deiner Logik oder bist einfach falsch informiert und ziehst daher falsche Schlüße. Was weniger verständlich ist, ist deine Umbenennung von technisch lange bekanntem und das fehlen der Erklärung wofür das in irgendeiner Form relevant sein soll bei SSDs. Deine Vorstellung dass Mutterkonzerne so mir nichts dir nichts machen können was sie wollen mit ihren Tochterunternehmen ist erschreckend weltfremd - schon alleine der Gedanke, dass alle dieselben Investoren haben hat mich echt kurz lachen lassen als ich mir vorstellte wie das bei einem Börsen notierten Unternehmen gehen soll. Und ich fand es zu guter Letzt ein sehr trolliges Verhalten den anderen User aus dem CB Forum der meines Erachtens nach schlüßig argumentiert hat, hier als Troll zu bezeichnen. Dein ganzer epischer Text mit dem zerrupfen in einzelne Zitate ohne Zusammenhang und fehlenden konkreten Antworten auf die Fragen ist meiner Meinung nach der Prototyp eines echten Trollbeitrags. Naja du bist nicht der erste mit einem solchen Diskussionsstil hier, doch zum Glück sind wir ja auf P3D und nicht auf CB.
 
Zuletzt bearbeitet:
Danke für Deinen Beitrag Complicated!

Jetzt weiß ich endlich woher die Erfindung sync-faking her kommt, also das ist der klassische write back cache.
Wieder was gelernt ;D

Bei Tochterunternehmen ist es noch dazu folgendermaßen:
Ein Tochterunternehmen ist prinzipiell einmal eine vollkommen unbabhängige Firma mit eigener Geschäftsführung,
eigener Verantwortung und eigenem finanziellem Gehabe (ziemlich sicher aber im Rahmen des Budgets das
die Mutter der Tochter zugesteht, was aber im Gesellschaftsvertrag geregelt ist).
Direkte Anweisungen von der Mutter sind nicht möglich, sonst wäre es ja eine Abteilung und keine Firma.
Eine Anweisung von der Mutter geht entweder über eine Eigentümerweisung mit Gesellschafterversammlung, Abstimmung
und so weiter (oder mit Absetzung der Geschäftsführung durch einen braven Soldaten).
Ein anderes Verhalten würde handelsrechtliche Konsequenzen nachsich ziehen.
Es ist also alles nicht so einfach wie sich das manche hier vorstellen.
 
Außerdem bleibt zu klären, ob das ATA Flush Cache Issue für alle SF-1200 Laufwerke gilt, denn SandForce hat es voraus gesehen:
These differences are due to the SF-1500’s intended use in servers, with the firmware even supporting an emergency data write sequence. The controller is intended to be used with high capacity capacitors, giving it enough to time flush the drive’s buffer into the NAND cells should the power be cut. The SF-1200 firmware doesn’t have this failsafe, but has more stringent fault tolerances, which decreases the random write speed. Outside of a server, it’s doubtful you’ll ever notice the difference between the two controllers. (...) Thanks to OCZ’s close relationship with SandForce, much like it’s relationship with Indilinx, OCZ gets quick access to the newest and best firmware updates. This is what allows OCZ to use the quicker SF-1500 with the Vertex 2, despite the SF-1200 controller inside. OCZ’s Agility 2 does use the SF-1200 firmware, but as these are physically identical to the Vertex 2 (only the firmware differs) pricing is near identical.
Quelle: http://www.bit-tech.net/hardware/storage/2010/06/25/sandforce-ssd-test/2

Man liest zwar immer wieder von Datenverlusten beim SF-1200; vorrangig beim Einsatz von ZFS unter Solaris. Ich könnte mir jedoch vorstellen, dass das ATA Flush Cache Issue nur auftritt, wenn vom Referenzdesign abgewichen wird. So wie bei den OCZ Laufwerken, bei denen die SF-1500 Firmware mit dem "kleineren" Controller genutzt wird. Der SF-1200 setzt schließlich auf keinen externen DRAM Baustein und der interne Cache wird sehr klein ausfallen. Es würde mich wundern, wenn es deutlich mehr wären als einige Kilobyte. Insofern würde eine Leerung nur wenige Millisekunden in Anspruch nehmen. Ob es da gleich eines teuren Super-Caps bedarf oder ob weit weniger Energie (wie der Reststrom vom ATX Netzteil) ausreichend ist? Das wäre eine wenig verlässliche Spannungsquelle, aber könnte in der Praxis ausreichend sein, wenn man den internen Cache nicht auf maximale IOPS Werte getrimmt nutzt.

Und die Ursache für die Inkompatibilität mit den Chipsätzen der 8er Familie von Intel, liegt bei SandForce und nicht umgekehrt. Übrigens tut sich der SF-1200 und SF-1500 ebenfalls mit älteren ATi sowie nVidia Chipsätzen schwer, die Inkompatibilität mit dem Z87 ist kein Einzelfall. Hierzu mehr:
My "old" 120GB Corsair F120 SSDs that we have used for testing motherboards caused big issues. On the ASUS Z87 motherboards, the F120 drives would work, but could be slow or not recognized, or cause boot issues, or simply not been seen by the BIOS or the OS. (...) Letting Intel know about this problem it originally expressed it had not seen any issues, but later came back to say: "We have seen some older SATA 2 devices that are out of spec (8-series has tighter tolerances to specs as platform power is much lower – but fully complies with all SATA specs) and have intermittent behavior, we are investigating whether this particular drive is one of those." Obviously Intel is aware of a "problem" internally, although the fault may not be on its end. Doing a bit of digging we found that some 1200 and 1600 series SandForce controllers are not fully SATA specification compliant and the previous Intel chipsets allowed for this out of spec behavior. It seems that the Z87 will not allow for this as it requires "strict adherence to the SATA specification." (...) This issue does not seem to be "widespread" though as Intel sent us a chart that contains many SATA 2 drives that have been verified to work fine with Z87 chipsets.
Quelle: http://www.hardocp.com/article/2013/06/03/asus_z87a_lga_1150_motherboard_review/7
 
Zuletzt bearbeitet:
Das geht aber aus deinem Zitat nicht heraus. Dort hat Intel zwar behauptet sie hielten sich strikt an die SATA Vorgaben, doch das ist die PR-Art nichts zu sagen....wer daraus schließt, dass OZC dies nicht macht, der fällt auf den ältesten rhetorischen Trick der Welt rein. ICH halte mich an die Geschwindigkeitsbregrenzung. Habe ich jetzt gesagt dass es alle anderen nicht tun? Ich persönlich vermute die Kompatibilitäts Probleme bei den neuen Stromsparfeatures. Denn wenn das Drive erstmal im BIOS erkannt wurde funktioniert es stabil. Die neuen Stromsparfeatures machen auch Netzteilen zu schaffen und ich denk die fehlenden Kapazitatoren verbunden mit dem Durawrite Feature, welches für Kompression sorgt um weniger Daten zu schreiben, vertragen sich nicht. Daher wird Sandforce hier wohl auch kein Update anbieten. Denn die dort verwendeten Powerstates waren sicher kein SATA Standard als Sandforce seine Controller in den Markt brachte.. Die SF-1500 haben keine Probleme, nur die SF-1222. Man sollte schauen ob das abschalten der Stromsparfeatures Abhilfe bringt, falls alle abschaltbar sind.

Alleine die Vorstellung, dass einzig und alleine die Chipsätze in Verbindung mit Haswell korrekt SATA konform arbeiten und ALLE anderen, selbst Ivy Bridge mit den selben Chipsätzen nicht 100% sATA konform sind ist so absurd, dass ich mich frage wie man eine solche Mär glauben kann.
 
Ich persönlich vermute die Kompatibilitäts Probleme bei den neuen Stromsparfeatures.
Da brauchst du nichts zu vermuten, denn Intel hat dies indirekt bestätigt. Wie sonst soll die geringere Plattform Power eingehalten werden?
Denn wenn das Drive erstmal im BIOS erkannt wurde funktioniert es stabil.
Nunja, mehr oder weniger. Manchmal sollen sie sich auch im laufenden Betrieb mit einem BSOD abmelden. Außerdem deutest (?) du an, das ATA Flush Cache Issue hätte etwas mit den Stromsparfunktionen moderner Intel PCHs zu tun hätte, aber dem ist nicht so. Es tritt mit jedem beliebigen Chipsatz unter jedem Betriebssystem auf. Manche Dateisysteme sind von ihrer Struktur her anfälliger als andere; das ist jedoch irrelevant. Die Ursache liegt eindeutig bei den betroffenen SSDs. Sie melden einen geleerten Write Buffer ohne dass sichergestellt ist, das der Inhalt tatsächlich gesichert werden kann.
Selbst Ivy Bridge mit den selben Chipsätzen nicht 100% sATA konform sind ist so absurd...
Die eingesetzte CPU spielt keine Rolle. Es geht nur um den Unterschied zwischen H87/Z87 und H77/Z77 und die 8er Familie ordnet man (lose) Haswell zu. Und nur weil man eine Norm großzügiger (zum Vorteil anderer) auslegt, verstößt man nicht gleich gegen sie. Aber man ist nicht gezwungen, dies beizubehalten. Intel hat sich nun für eine engere Einhaltung des Standards entschieden. Das führt zu Problemen mit dem SF-1200 und SF-1500, die sich auf die weite Auslegung der SATA Spezifikationen verlassen und dafür teilweise gegen den Standard verstoßen. So wird es selbst im OCZ Forum proklamiert.
 
Zuletzt bearbeitet:
Dass Haswell die einzige CPU weltweit sein soll die nun das SATA Protokoll korrekt anwendet darf ja wohl als Märchen bezeichnet werden. Denn an allen SATA Controllern die als Steckkarte verbaut werden funktioniert es, und da sind Enterprise Modelle dabei die sicher sehr strikt mit Standards umgehen. Wurde Intels Geschichte stimmen gäbe es keine korrekt implementierten SATA Controller am ganz Markt weltweit, da ja diese dann auch nicht mit Haswell arbeiten dürften wenn sie zuvor Problemlos mit SF-1222 funktioniert haben. Wie ich sagte es ist lediglich ein rhetorischer Marketing Trick. Im OZC Forum konnten Probleme mit dem SF-1500 IMHO bisher nicht bestätigt. Welcher SATA Standard hier verletzt worden sein soll ist auch unklar, da es ja um Erkennung im BIOS geht. Und die eingesetzte CPU spielt eine Rolle, da nur Haswell CPUs betroffen sind und keine Vorgänger CPU auf den selben Chipsätzen.-1222-
 
Zuletzt bearbeitet:
Und die eingesetzte CPU spielt eine Rolle, da nur Haswell CPUs betroffen sind und keine Vorgänger CPU auf den selben Chipsätzen.

Es gibt keine Vorgänger CPU auf den selben Chipsätzen.

LGA1150 Chipsätze 8er und 9er Generation - CPU's nur Haswell und Haswell Refresh und irgendwann mal Broadwell
LGA1155 Chipsätze 6er und 7er Generation - CPU's Sandy und Ivy Bridge

Gleich sind die Chipsätze nicht, 6er > kein USB 3.0, 6er und 7er > 2 x SATA III 4 x SATA II, 7er > 4 x USB 3.0, 8er und 9er 6 x SATA III und USB 3.0 usw
 
Ah stimmt ja, mein Fehler. War ja mal wieder ein Sockelwechsel fällig weil neu viel besser und frischer ist. Nun sind also angeblich der 8er und 9er Chipsatz die einzigen die weltweit das SATA Protokoll korrekt implementiert haben - nicht viel glaubwürdiger.
 
Zäum doch das Pferd einmal von hinten auf! Wieso machen andere Controller - zum Beispiel diejenigen von Marvell - weniger Schwierigkeiten beim H87/Z87? Wenn der SF-1200 die SATA Spezifikationen vollständig einhält, verstoßen dann alle andere Controller dagegen? Und wieso stört sich der SF-1200 nicht nur am H87/Z87, sondern ebenso an älteren ATi und nVidia Chipsätzen? Ist er vielleicht einfach nicht die Ausgeburt an höchste Ingenieurskunst, obwohl er lange den Ton vorgegeben hat am SSD Markt? Der SF-1200 galt doch von Anfang an als ziemlich zickig. Die Inkompatibilität mit dem H87/Z87 ist doch leider nur die Spitze des Eisberges. Intel hat den einen oder anderen Bock geschossen, aber in diesem Fall halte ich sie wirklich für unschuldig.
 
Zuletzt bearbeitet:
Lohnt eher nicht wegen dem ollen SF-1200 da noch groß Zeit in Diskussionen zu verschwenden, wer LGA1150 nutzen will sollte die Kombi halt meiden.
 
Lohnt eher nicht wegen dem ollen SF-1200 da noch groß Zeit in Diskussionen zu verschwenden, wer LGA1150 nutzen will sollte die Kombi halt meiden.

*clap**clap**clap**great**great**great**clap**clap**clap*

Außerdem ist sie in diesem Thread vollkommen OT!
 
Zäum doch das Pferd einmal von hinten auf! Wieso machen andere Controller - zum Beispiel diejenigen von Marvell - weniger Schwierigkeiten beim H87/Z87? Wenn der SF-1200 die SATA Spezifikationen vollständig einhält, verstoßen dann alle andere Controller dagegen? Und wieso stört sich der SF-1200 nicht nur am H87/Z87, sondern ebenso an älteren ATi und nVidia Chipsätzen?
ROFL...ist das selbe Argument wie warum machen alle anderen Chipsätze keine Probleme? Bei ATIs sind mir keine bekannt gewesen, doch nvidias sind bekannt dafür leicht ausserhalb der Spezifikationen gelaufen zu sein und somit auch andere Probleme verursacht zu haben. Zudem muss man bei der jüngsten Fehlerhistorie bei Intels Chipsätzen doch mal langsam an der Qualität derer zweifeln. Die hatten mehr Chipsatz Rückrufe und Austausche als OZC je SSDs verkauft hat.
 
mit Absetzung der Geschäftsführung durch einen braven Soldaten
Wer setzt denn die GF einer Tochterfirma überhaupt ein? Sorry, keine Ahnung welche Erfahrungen Du so hast, aber es scheint in dem Bereich nicht viel zu sein.

Jetzt weiß ich endlich woher die Erfindung sync-faking her kommt, also das ist der klassische write back cache.
Das bei einem Write Through Cache kein sync gefakt werden muss, liegt ja wohl auf der Hand. Bei einem Write Back Cache werden nach klassischer Definition die Daten erst auf das Medium geschrieben, wenn sie aus dem Cache verdrängt werden. Das kann man mit einem sync Befehl erzwingen. Wird das sync Befehl aber nicht tatsächlich ausgeführt, spricht man von sync Faking oder eben fsync faking. Das kann gemacht werden, wenn der Verlust der Daten aufgrund anderer Mechanismen trotzdem verhindert wird, wie eben die BBU am RAID Controller oder die Stützkondensatoren bei SSDs.

Außerdem bleibt zu klären, ob das ATA Flush Cache Issue für alle SF-1200 Laufwerke gilt, denn SandForce hat es voraus gesehen:
Ja, die Enterprise Versionen der beiden SF Generationen, also vor allem die 15xx und 25xx sind für Stützkondensatoren vorgesehen und es war damals auch immer von zwei FW Versionen die Rede, einer mit mehr IOPS als die andere und davon, dass OCZ die schnellere einsetzen würdn. Das diese schnellere aber für die Enterprise mit den Stützkondensatoren war, meine ich nie gelesen zu haben, klingt aber logisch. Man braucht ja dann die Verwaltungsdaten nicht so oft in die NANDs zurückzuschreiben, wofür ja auch Crucial die Stützkondensatoren bei den Modellen seid der m500 nutzt, die übrigens kein sync-Faking machen. Das würde auch die besondere Anfälligkeit der OCZ SF-1222 SSD erklären, da die SSD anderer Hersteller mit der langsameren FW offenbar weniger gefährdet sind.

Man liest zwar immer wieder von Datenverlusten beim SF-1200; vorrangig beim Einsatz von ZFS unter Solaris. Ich könnte mir jedoch vorstellen, dass das ATA Flush Cache Issue nur auftritt, wenn vom Referenzdesign abgewichen wird.
Referenzdesign im Sinne der für die Consumer Versionen vorgesehnen, langsameren FW: Ja, vielleicht nicht nur, zumindest öfter.

Der SF-1200 setzt schließlich auf keinen externen DRAM Baustein und der interne Cache wird sehr klein ausfallen.
Die SF-1500 müssen aber auch ohne externen Cache auskommen und wie klein der interne Cache ist, ist eine gute Frage. Er OnDie sind, dann ist er vermutlich kleiner als wenn das Gehäuse ein Multi-Die Package ist und dort ein normales RAM Die drin steckt. Auffällig ist abar, das bei den SF-22xx die Perfomance fällt, wenn sie mehr also 240/256GB haben, also offenbar nicht mehr die ganze Mappingstablle (oft ja ein Baum) ins RAM passt, denn dafür wird das RAM ja vorwiegend benötigt. Muss man die erst immer aus dem NAND Lesen, fallen vor allem die IOPS massiv. Andererseits waren die IOPS bei den SF selbst mit IOMeter bei Zugriffen über 85% der Kapazität immer geringer als bei nur 8GB Adressraum und je größer die Kapazität, umso ausgeprägter war das, was für wenig RAM spricht.

Aber den SF habe ich nur für einen tollen Controller gehalten, der war immer der größte Blender und der Controller wo Anspruch und Wirklichkeit am Weitesten auseinander gehen.
Insofern würde eine Leerung nur wenige Millisekunden in Anspruch nehmen. Ob es da gleich eines teuren Super-Caps bedarf oder ob weit weniger Energie (wie der Reststrom vom ATX Netzteil) ausreichend ist? Das wäre eine wenig verlässliche Spannungsquelle, aber könnte in der Praxis ausreichend sein, wenn man den internen Cache nicht auf maximale IOPS Werte getrimmt nutzt.
Der Reststrom des Netzeils wäre eine tolle Notstromversorgung, nur fehlt da leider in Pin am Stromstecker, der die SSD alamieren könnnte, dass gerade die Eingangsspannung weg ist, man also nur noch einige ms lange Spannung haben wird. Das merkt die SSD also leider nicht und damit erfährt sie vom Stromausfall eben erst, wenn diese Restladung der Elkos des NTs schon verbraucht ist und die 5V unter den Toleranzwert gefallen sind.

ATX wurde eben vor der Erfindung der SSDs eingeführt, daher haben wir diese Signalleitung zum Warnen der SSD vor Stromausfällen leider nicht, schade.
Und die Ursache für die Inkompatibilität mit den Chipsätzen der 8er Familie von Intel, liegt bei SandForce und nicht umgekehrt.
Wer es wissen will, dem ist das bekannt, die anderen wolle es nicht wahrhaben oder einfach nur stänkern. Letzteres scheint der Fall zu sein, denn Arguemnte imgedreht und absichtlich missverstanden werden, dann: IgnoreList++

Lohnt eher nicht wegen dem ollen SF-1200 da noch groß Zeit in Diskussionen zu verschwenden, wer LGA1150 nutzen will sollte die Kombi halt meiden.
Das sehe ich auch so, die Dinge haben eh meist nur 60 oder 120GB, 240GB waren damals noch echt teuer und wer sie unbedingt weiter nutzen will, der kann sich ja eine SATA Controllerkarte oder ein Board mit Zusatzkontrollern kaufen, denn es ist ja nur ein Problem an den Ports des Chipsatzes und hat mit der CPU selbst direkt nichts zu tun, außer dass halt nur Haswell und Haswell Refresh CPU auf den Chipsätzen laufen und vielleicht noch irgendwann Broadwell?
 
...nur fehlt da leider in Pin am Stromstecker, der die SSD alamieren könnnte...
Solch einen Pin zur Kommunikation mit dem Netzteil bräuchte es gar nicht zwingend, denn die SSD würde schließlich das Abreißen des SATA Links zum HBA detektieren. Sobald das Clock Signal (eingebettet in Data Stream) ausbleibt, könnte er beginnen den Write Buffer in einen gesonderten Bereich des NAND Flash zu sichern. Und der HBA sendet seine letzten Signale beim Shutdown Prozess (für Halbleiterverhältnisse) lange bevor die Hauptplatine das Power Off Signal an das ATX Netzteil sendet. Ich sehe die Problematik vor allem darin, dass die SSD in diesem Zustand mit anderen Verbrauchern um die verbleibende Energie konkurriert. Zum Beispiel Lüfter oder Status Displays wären hier zu nennen, die einen Strich durch die Rechnung machen können. Nicht jeder PC hat eine PSU der >500W Klasse mit dementsprechend großer Kondensatorkapazität. Somit ist nicht sichergestellt, dass die Leerung des Write Buffers abgeschlossen werden kann und man zu einem konsistenten Ergebnis kommt. Jedenfalls sind dies Rahmenbedingungen, die ein nur ein Systemhersteller (OEM) und nicht der Fertiger der SSD für sein Produkt garantieren kann. Ich persönlich würde mich demnach nicht darauf verlassen wollen. Mir wäre eine in zahlreichen (internen) Tests bestätigte korrekte Dimensionierung eines Super-Caps oder (verschleißarmen) Akkumulators lieber.
 
Zuletzt bearbeitet:
@Holt
Du hast jetzt wiederholt diesen Link zum scny faking gepostet. Ich habe das dort nun zum zweiten mal gelesen und beim besten Willen kann ich keinen Zusammenhang herstellen zu einer Funktion die SSDs haben. Was soll das sein in Bezug auf SSDs? Dort geht es um Datenbank Programmierung und nur um Software. Zitiere doch bitte mal die Stelle aus dem ewig langen Text auf die du dich beziehst...
 
Zuletzt bearbeitet:
Weiß man eigentlich wann diese Gelauncht werden sollen?
 
die SSD würde schließlich das Abreißen des SATA Links zum HBA detektieren.
Wann würde denn der HBA das Clock Signal des SATA Links beenden? Das sitzt ja i.d.R. auf der Hauptplatine und die wird mit den gleichen 12V und 5V (heute selten genutzt) versorgt, so dass sie einen echten Stromausfall ebenfalls nicht sofort bemerkt und damit wertvolle Akkuladung / Zeit verloren geht.

Mir wäre eine in zahlreichen (internen) Tests bestätigte korrekte Dimensionierung eines Super-Caps oder (verschleißarmen) Akkumulators lieber.
Die kosten aber Geld und sind eben ein Enterprise SSD Feature und die SSD möchten die Enterprise SSD möglich gut von den Consumer SSDs abgrenzen, was ja schwer genug ist. Daher würde ich das bei den Consumer SSD nicht erwarten und auch Crucial SSDs haben kleine Kondensatoren als die Micron M500 DC Reihe.

@Holt
Du hast jetzt wiederholt diesen Link zum scny faking gepostet. Ich habe das dort nun zum zweiten mal gelesen und beim besten Willen kann ich keinen Zusammenhang herstellen zu einer Funktion die SSDs haben. Was soll das sein in Bezug auf SSDs? Dort geht es um Datenbank Programmierung und nur um Software. Zitiere doch bitte mal die Stelle aus dem ewig langen Text auf die du dich beziehst...
Also noch einmal, aber nur weil Du diesmal sachlich nachfragst: Es geht um die Beantwortung des Befehls mit dem Platte aufgefordert wird den Cacheinhalt auf das Medium zu schrieben. Bei RAID Controllern emüfängt dieser ja alle Befehl und teils sie dann ggf. an die Platten auf, führt die Antworten zusammen und antwortet dem Host. Bei solche mit BBU kann er diese Aufforderung auch einfach sofort beantworten, er weiß ja, dass er bei Stromausfall die Daten aus dem Cache nicht verliert.

Das machen auch einige SSDs! Bei Enterprise SSD mit Notstromversorgung ist das auch kein Thema, denn die können mit der Ladung der Kondensatoren ebenfalls noch die Daten aus dem Cache ins NAND zurückschreiben und dürfen daher so tun als wäre das geschehen, ohne es wirklich auszuführen. Nur machen eben auch andere SSDs sowas, wie eben z.B. die OCZ Vertex 4.

Das kann man hier sehen, , auf der Seite sind auch Beispiele anderer SSDs und es sollte dort klar werden, wie man das testet (bei Systemlaufwerken eine Reboot machen). Warum ist der Write Cache einen Hinweis auf sync-Faking? Nun dazu muss man wissen was diese Einstellung denn beeinflusst bzw. überhaupt kann. Das ist nur der Treiber, mir ist zumindest kein ATA Befehl bekannt um bei SSDs und HDDs einfach den Schreibcache ein und auszuschalten, aber der Treiber hat darauf Einluss und schickt dann eben hinter jedem letzten Write eines Schreibvorgangs ein FLUSH CACHE (oder FLUSH CACHE EXT) oder er setzt das Feature Flag für Flush im "Default Command Completion Time Limit" oder im Feature Word im Befehl wenn er den WRITE STREAM DMA EXT (0x3A) Befehl nutzt. Beides läuft auf das gleiche raus und soll bewirken, dass Daten sofort geschrieben werden und der letzte Befehl erst beendet ist, wenn diese auf dem Medium stehen und damit wird die Leistung in Benchmarks wie AS-SSD eben entsprechend gering, weil die Daten bei 4k Schreiben auch wirklich nach jedem 4k Schreibbefehl im NAND landen und nicht im Cache bleiben und dann erst im Bündel geschrieben werden. Da sieht man mal, wie lahm NANDs doch eigentlich ist :D

Merkt man aber nun keine Veränderung und ist die Schreibrate weit über den paar MB/s die wirklich in ein NAND geschrieben werden können, so ist das eben kein wundersam schnelles NAND, da gibt es keine großen Unterschiede, es ist das sync-Faking und die Daten liegen eben in Wahrheit noch im Cache, während der Rechner glaubt sie wären auf dem Medium. Bei Datenbanken ist das besonders luktativ, da diese gewöhnlich aus Sicherheitsgründen alle Schreibvorgänge mit einem sync beenden und ein Commit erst fertig ist, wenn auch das sync beendet wurde.
 
Das ist exakt das Verhalten eines write back caches.
Der sagt dem Betriebsystem bei jedem sync es ist alles geschrieben.
Nur ein write through cache macht das nicht.

ATA Flush cache hat nichts mit sync des Betriebsystems zu tun!
Sync geht in den write back cache nichts weiter.

Das gilt auch für alle Festplatten und Raidcontroller mit Cache.
Deshalb muss man write back bei den meisten Controllern und Festplatten im Enterprisebereich erst bewusst einschalten, denn die sind normalerweise ausgeschaltet.
Im Consumerbereich ist write back dagegen meistens per default eingeschaltet.

Wenn allerdings flush cache "gefaket" wird dann ist das tatsächlich ein Mangel und Schummeln des Herstellers.

Die Frage ist eher ob man die SSDs auf write through umschalten kann.
 
Der Punkt ist hier nur, dass Sandforce Controller gar keinen Daten Cache benutzen danke Ihrer Dura Technik. Es werden auch die Daten nur komprimiert auf die NANDs geschrieben http://anandtech.com/show/2899/4
Da kann also gar nicht mit solchen Methoden beschissen werden. Das war übrigens auch der Grund warum ich mir damals auch eine Vertex 2 geholt habe. Keine Datencache.

---------- Beitrag hinzugefügt um 10:41 ---------- Vorheriger Beitrag um 10:39 ----------

Aber hier wird ja kein Sandforce Controller verwendet bei AMDs SSDs...
 
...so dass sie einen echten Stromausfall ebenfalls nicht sofort bemerkt...
Damit hast du natürlich Recht. In der Eile hat sich ein Denkfehler bei mir eingeschlichen.
Der Punkt ist hier nur, dass Sandforce Controller gar keinen Daten Cache benutzen...
Die SandForce Controller setzen zwar auf keinen externen DRAM Cache, aber ein interner Cache (unbekannter Größe) ist beim SF-1200 und den Nachfolgern vorhanden. Andernfalls könnte er zum Beispiel gar keine einkommenden Befehle mittels NCQ umsortieren; die Kompression muss sich auch irgendwo abspielen. Das würde bedeuten, dass AHCI gegenüber Native IDE ohne NCQ nicht in der Lage wäre die Leistung nennenswert zu steigern. Dies ist jedoch der Fall. Und dieser interne Cache meldet auf jeden ATA Flush Cache Befehl den Zustand "geleert", ob er das wirklich ist oder nicht. Das wäre nicht weiter schlimm, wenn es Stützkondensatoren gäbe, die den Inhalt absichern. Damit verschafft sich SandForce einen Vorteil in Benchmarks. Diese leeren zum Abschluss ihrer Messungen den Write Buffer, damit dieser nicht das Ergebnis verfälscht. Man möchte schließlich die gesamte Zeitdauer der I/O-Operationen erfassen und nicht allein diejenige bei der das SATA Interface beschäftigt ist. Bestätigt man die Leerung des Write Buffers jedoch bevor sie wirklich erfolgt oder überhaupt sichergestellt ist, schindet man einige Millisekunden Zeit. Ein Stromausfall kann sich jedoch verheerend auswirken und zu einem Datenverlust führen. Da Datenbanken besonders anfällig für Inkonsistenzen sind, kam dort zuerst die Warnung vor dem SF-1200 auf. Der SF-1200 steht allerdings nicht allein auf weiter Flur. Seagate sah sich einmal genötigt wegen einem ähnlichen Verhalten einer HDD Serie ein Firmware Update aufzulegen: Klick
 
Zuletzt bearbeitet:
Zurück
Oben Unten