News Mehr Festplatten-Kapazität dank Helium

cruger

Senior Moderator
☆☆☆☆☆☆
Teammitglied
Mitglied seit
25.05.2002
Beiträge
29.374
Renomée
1.572
  • QMC Race
  • BOINC Pentathlon 2014
Der Bedarf an vor allem kostengünstigen Massenspeicher steigt kontinuierlich von Jahr zu Jahr. In einem <a href="http://www.forbes.com/sites/ericsavitz/2012/04/12/seagate-ceo-luczo-on-drives-zettabytes-flash-and-his-tattoo/" target="b">Forbes-Interview</a> aus dem April diesen Jahres geht Seagate CEO Stephen J. Luczo davon aus, dass die Festplatten-Hersteller bis 2016 pro Jahr eine Gesamtkapazität von ca. einem Zettabyte ausliefern werden, ab 2020 liegen Seagates eher konservative Schätzungen bei 7 Zettabyte (2011: 400 Exabytes).

Demgegenüber ist bei Festplatten in der letzten Zeit eine immer geringer ausfallende Steigerung der Datendichte zu beobachten. Offenbar nähert man sich langsam den physikalischen Grenzen des seit 2005 verwendeten senkrechten <a href="http://en.wikipedia.org/wiki/Perpendicular_recording" target="b">Perpendicular Aufzeichnungsverfahrens</a>. Zwar erforschen und entwickeln die Hersteller seit Jahren neue Methoden zur weiteren Erhöhung der Datendichte wie z.B. <a href="https://www1.hgst.com/hdd/research/storage/pm/index.html" target="b">Bit Patterned Media</a> oder <a href="https://www1.hgst.com/hdd/research/recording_head/tar/index.html" target="b">Heat-assisted Magnetic Recording</a>, mit marktreifen Produkten ist aber zumindest kurzfristig nicht zu rechnen, letzte Prognosen gehen von 2015 aus.

<a href="http://www.hgst.com/" target="b">HGST</a> (ehemals Hitachi Global Storage), seit kurzem ein Tochterunternehmen von Western Digital, hat nun einen im Vergleich eher ungewöhnlichen Weg zur Realisation höherer Kapazitäten vorgestellt. Verwendete man bisher bei seinen Top-Produkten ein 5-Platter-Design, wie z.B. bei den 4 Terabyte Modellen der aktuellen Deskstar/Ultrastar 7K4000 Serie, wird man zukünftig 7 Datenscheiben in ein 3,5 Zoll Gehäuse packen. Um dies zu ermöglichen, befüllt HGST eine Festplatte mit dem Edelgas <a href="http://de.wikipedia.org/wiki/Helium" target="b">Helium</a>, herkömmliche Produkte arbeiten mit Luft. Die Vorzüge von Helium gegenüber Luft gelten als lange bekannt, die besondere Herausforderung lag in der Entwicklung eines für Helium geeigneten hermetisch versiegelten Gehäuses und eines für die Massenprodukten kostengünstigen Herstellungverfahrens, was laut HGST einen Zeitraum von 6 Jahren in Anspruch genommen hat. Die Vorteile bein Einsatz vom Helium beschreibt HGST in einer Pressemitteilung wie folgt:

<blockquote><i>Die Dichte von Helium beträgt ein Siebtel der Dichte von Luft, was für die versiegelte Festplattenplattform von HGST große Vorteile bringt. Die geringere Dichte bedeutet wesentlich geringere Strömungseffekte, denen die rotierenden Plattenstapel ausgesetzt sind, wodurch wesentlich weniger mechanische Kraft auf den Motor wirkt. Die niedrigere Dichte bringt auch eine erhebliche Reduzierung der Strömungskräfte, die die Platten und die Trägerarme, mit denen die Köpfe über den Datenspuren positioniert werden, zum Vibrieren bringen. Das erlaubt eine engere Anordnung der Platten (d.h. mehr Platten in einem Gehäuse) und auch ein näheres Zusammenrücken der Datenspuren (d.h. es ist eine weitere Skalierung der Datendichte möglich). Die geringeren Scherkräfte und effizientere Wärmeleitung von Helium führen dazu, dass das Laufwerk kühler und leiser im Betrieb ist. </i></blockquote>
Stand heute kommen in 3,5 Zoll Festplatten Datenscheiben mit einer Kapazität von bis zu 1 Terabyte zum Einsatz. Mit Helium-befüllten Festplatten könnte man entsprechend Kapazitäten von mindestens 7 Terabyte erreichen. HGST rechnet mit einer Markteinführung entsprechender Produkte im Laufe des nächsten Jahres.


<b>Quelle:</b> <a href="http://www.presseportal.de/pm/103773/2324945/hgst-kuendigt-vollkommen-neue-festplatten-plattform-mit-heliumfuellung-an" target="b">HGST Pressemitteilung</a>

<b>Links zum Thema:</b><ul><li><a href="http://www.youtube.com/watch?v=xb_PyKuI7II" target="b">Perpendicular Recording</a></li><li><a href="http://www.toshiba.co.jp/about/press/2007_09/pr0601.htm" target="b">Discrete Track Recording</a></li><li><a href="http://www.ewh.ieee.org/r6/scv/mag/MtgSum/Meeting2010_10_Presentation.pdf" target="b">Shingled Magnetic Recording and Two-Dimensional Magnetic Recording</a></li><li><a href="http://de.wikipedia.org/wiki/Heat-assisted_magnetic_recording" target="b">Thermally Assisted Recording</a></li><li><a href="http://www.toshiba.co.jp/rdc/rd/fields/11_e09_e.htm" target="b">Patterned Media</a></li></ul>
 
Herkömmliche Festplatten haben immer eine mit Filtern versehene Öffnung zum Druckausgleich. Wodurch wird diese nun überflüssig?
Und wodurch verhindert man ein Entweichen des Heliums? Das diffundiert doch sicher im Laufe der Zeit durch die üblichen Silikondichtungen.

Da muss Hitachi wirklich sehr viel Forschungsarbeit geleistet haben um diese Probleme zu lösen. Weiter so... *great*
 
Wäre eine interessante Entwicklung. Kann aber kaum glauben das dies (bezahlbar) im laufenden Jahr realisiert wird
 
Und wodurch verhindert man ein Entweichen des Heliums? Das diffundiert doch sicher im Laufe der Zeit durch die üblichen Silikondichtungen.
Ich behaupte mal, sie müssen nur dafür sorgen das während der Garantie genug Helium im Gehäuse verbleibt...
Ansonsten werden die Platten stabiler werden müssen um gegen extreme Durckänderungen (Laptop im Flugzeuggepäck z.B.) geschützt zu sein.

Sehe das ganze etwas skeptisch noch, mal schauen was draus wird.

TAL9000
 
Den Druckausgleich kann man z.B. auch durch eine Membran realisieren, die sich entsprechend Verformt.
 
Kein Wärmeaustausch, die Schreib/Leseköpfe gleiten auf einem Luftkissen. Was den Einsatz von Festplatten in größeren Höhen beschränkt (Headcrash).
 
Helium, ob man sich da eine Gewichtsoptimierung erhoffen kann? *chatt*
 
Die erste Platte die festgeschraubt werden muß damit sie nicht nach oben abhaut ;D
 
Wäre eine interessante Entwicklung. Kann aber kaum glauben das dies (bezahlbar) im laufenden Jahr realisiert wird
a) im laufe des nächsten jahres
b) bezahlbare kapazitätssteigerungen sind der sinn des ganzen. natürlich ist damit zu rechnen, dass entsprechende produkte zunächst mal etwas teuer sein werden. aber da man vornehmlich unternehmenskunden und wachstumsbereiche wie cloud-storage adressiert, wird man auf vernünftige total costs of ownership achten.

Herkömmliche Festplatten haben immer eine mit Filtern versehene Öffnung zum Druckausgleich. Wodurch wird diese nun überflüssig?
Und wodurch verhindert man ein Entweichen des Heliums? Das diffundiert doch sicher im Laufe der Zeit durch die üblichen Silikondichtungen.
bis jetzt hat hitachi noch keinerlei specs oder white papers veröffentlicht. das wird vermutlich zeitnah zur veröffentlichung der ersten helium-festplatten passieren. eine andere webseite hat auf patenteinträge u.a. von seagate aus dem jahr 2002 (und früher) hingewiesen, die sich mit dem thema beschäftigt haben. aber offenbar ist hgst nun der erste, der eine praktikable lösung bei vertretbaren herstellungskosten zur marktreife gebracht hat. die idee der low density gase ist nicht neu, nur die umsetzung scheint die hersteller vor schwierigkeiten gestellt zu haben.
 
Weil die Plattern das Luftpolster benötigen um darauf zu schweben, sonst gibts einen (oder mehrere :D) Headcrash.
 
Die Frage ist wer es im prof. Umfeld wirklich nutzen möchte. Nehmen wir meine Systeme. Pools werden aus Raids gebildet. Wir sind gerade bei Raid14+2 und 7+1. Bei 7+1 und einer ausgefallenen Platte kann bei ner 1TB Platte (SATA) eine Wiederherstellung Tage dauern. Die Chance auf nen zweiten Diskausfall steigt damit enorm an. Passiert das in einem Pool der aus div. Raid zusammengebaut ist sind etliche TB an Daten einfach weg. Ich möchte kein herkömmliches 7+1 aus 3TB Disks haben dessen Wiederherstellung 5-6 Tage dauert.
 
1/7 Dichte von Luft bedeutet dann aber auch weniger Auf/Abtrieb an den Köpfen oder nicht ???
 
Weil die Plattern das Luftpolster benötigen um darauf zu schweben, sonst gibts einen (oder mehrere :D) Headcrash.

Als ob das ein Grund wäre. Wenn es kein Polster zum drauf gleiten mehr gibt lässt man sich halt andere Lösungen einfallen.

Der wahre Grund wird wohl eher sein, dass ein Vakuum schwerer zu erzeugen ist als eine Helium-Füllung.
 
1/7 Dichte von Luft bedeutet dann aber auch weniger Auf/Abtrieb an den Köpfen oder nicht ???
Es gibt kleine Flügelchen am Schreib/Lese-Kopf. Die könnte man vergrößern oder den Anstellwinkel steiler machen.
Haben diese Öffnungen nicht eher was mit dem Wärmeaustausch zutun?
Das gilt nur in der Hinsicht, dass sich die Luft im Inneren beim Warmlaufen der Festplatte ausdehnt und so ein Überdruck entsteht.
Der muss dann über eine Öffnung entweichen können oder es wird wie schon angemerkt eine Membran statt dessen verwendet.

@TAL9000: Die Langzeitstabilität ist wirklich ein heikler Punkt. Technisch sicher machbar, aber nicht ohne viel Forschung.
Es ist ja nicht nur die Dichtung beim Gehäusedeckel, sondern auch die bei den elektrischen Kontakten zur Steuerplatine.
 
Herkömmliche Festplatten haben immer eine mit Filtern versehene Öffnung zum Druckausgleich. Wodurch wird diese nun überflüssig?
[...]

Damit das Helium nicht entweicht, muss das Gehäuse dicht sein. Im besten Fall herrscht sogar ein Unterdruck im Gehäuse, aber das wäre noch schwieriger.
Schafft man das dichte Gehäuse, wofür sollte man einen Druckausgleich benötigen?
Bei Erwärmung würde der Druck etwas steigen - so what?

Bei den jetzigen Festplatten ist das ein Problem, weil sie nicht dicht sind. Da soll der Überdruck keine neuen Undichtigkeiten erzeugen. Der Überdruck ist aber wohl auch nicht wirklich das Problem, sondern der Unterdruck: Hier darf kein Staub in das Gehäuse gelangen. Deswegen die Filtermembrane die einen kontrollierten Druckausgleich ermöglicht.
 
Zuletzt bearbeitet:
Glaubt man Wiki haben "moderne Festplatten" keinen Ausgleich mehr - nur eine Druckmembran die sich wölbt.

Ich persönlich komme mit 1x1TB und 1x128GB im Moment recht gut zurecht (OK, 1x256GB SSD werden es noch) und bin damit auch keine Referenz. Ob das ganze für Cloud oder Video On demand etc interessant wird muss sich zeigen. Wie gesagt, je größer die disks udn je mehr Disks pro Raidgruppe desto größer auch die Ausfallwahrscheinlichkeit.
 
Mogul schrieb:
Die Frage ist wer es im prof. Umfeld wirklich nutzen möchte. ... Pools werden aus Raids gebildet. ... eine Wiederherstellung Tage dauern. Die Chance auf nen zweiten Diskausfall steigt damit enorm an. ... sind etliche TB an Daten einfach weg. ... 3TB Disks ... Wiederherstellung 5-6 Tage
Bei Google verwendet man deswegen auch kein RAID auf Plattenebene, sondern Chunks. Jeder Chunk liegt auf 5(?) verschiedenen Rechnern. Fällt ne Platte aus, wird automatisch eine der vier anderen Kopien auf einen Server gespiegelt, der noch Kapazität hat.

Bei 28 Platten im Server (Pool aus 4 7er RAIDs) wäre sowas sicherlich interessant...
 
Und wieviele Firmen können sich 4 Storages am besten noch an 4 verschiedenen Orten leisten?
Das mit dem Spiegeln versteh ich nicht, oder ich steh auf dem Schlauch. Auf welchen Server werden die gespielt? Über welche Größen reden wir? Ist das ne Art Cluster? Ansonsten hast Du noch, Stand der Technik, wenigstens 2x8Gb pro Server fürs San.

PS: das hier? http://de.wikipedia.org/wiki/Google_File_System ? Alles schön. Aber wieviele Unternehmen haben die Anforderung der "BigFiles"? Sicherlich alles schön für Google, aber eben für meine Art der Arbeit total falsch. Oracle-DBs speichern IMHO nicht wirklich fette Files, das sind bei uns IMHO 8k Blocks.

Im übrigen arbeiten meine Storages auch nur mit Chunks bzw Pages, nur eben auf Basis von Raidgruppen in Pools. Meine HDS sieht keine 3GB, die sieht 42MB Pages die im Pool quer verteilt auf SSD oder SAS oder SATA liegen, je nachdem wie oft was wo angefasst wird.
 
wieviele Unternehmen haben die Anforderung der "BigFiles"?
Alle Arten von Download-, Streaming- und Backupdiensten, beispielsweise. Also die erste Zielgruppe für diese Monsterfestplatten.

Oracle-DBs speichern IMHO nicht wirklich fette Files
Das macht, je nach Anwendungszweck, Sinn oder auch nicht. Aber erklär mir mal, wie du eine Datenbank, die sinnvoll auf 8k-Blocks arbeitet, mit 10 TB und mehr an Daten füllen willst?

das sind bei uns IMHO 8k Blocks.
Terabytes davon!? *suspect*
 
Ich kann bei DBs nicht mitreden, nicht meine Welt. Beim Rest ist es auch ne monetäre Frage ob die Unternehmen sich nen Cluster in der Form aufbauen können. Ich hab ja auch nicht gesagt das es sinnlos sein. Du hast aber Recht, Downloaddienste oder dergleichen haben da sicherlich irgendwie Bedarf.

Habe nochmal kurz in den Artikel geschaut. Matserserver für Metadaten, Schattenmaster um einen Ausfall des Masters abzufangen denn wenn dessen Metas weg sind ist Sense. Dazu noch die Clusterbeteiligten. Das ist für größere Unternehmen sicherlich interessant - weißt Du ob das jemand außer Google besitzt oder lizensiert hat?
 
Das google filesystem ist frei.

lg
__tom
 
Zurück
Oben Unten