Diskussionsthread zu "Raid-Controller und Festplatten" :)

Also wenn es sich wirklich nur um 4GB handelt, würd ich folgendes vorschlagen:

Ein Raid1 aus 2 (oder mehr) 15krpm SCSI HDDs (40GB pro HDD reichen), nicht mehr. Das übrige Geld wird in 8GB Ram gesteckt, damit passt die gesamte Datenbank da rein und entlastet die HDDs gewaltig, was auch deren Lebenszeit zugute kommt.

Dürfte billiger sein als riesige Raid 10 mit tonnenweise HDDs. Ein AMD64 Linux/BSD ist dann natürlich Pflichtprogramm, aber ja auch kein Problem (und ich würd für BSD votieren).
 
Also, es muss ein richtiger Raidcontroller sein, eine Steckkarte.
Mit eigener CPU und eigenem RAM, 128MB oder mehr.
Dann werden die Platten nicht ganz so krass belastet und die Anfragen werden viel besser verteilt.
Ausserdem kann damit das Raid in einen anderen Rechner umziehen falls man erweitern will/muss oder mal das Board stirbt.

Onboardcontroller mit treiberbasierten Softwareraid sind für solche Anforderungen ein ganz schlechter Witz.

Ramdisk?
Wie oft wird die dann mit der Harddisk abgeglichen? Sagen wir mal alle 5 Minuten, dann müssten alle 5 Minuten 4GB geschrieben werden. Da freuen sich die Platten.
Gleicht man permanent ab, kann man sich das wohl auch aus Performancegründen sparen.
Und wenn doch mal die Kiste abschmiert, warum auch immer, sind alle Daten die in den Zeitraum entstanden sind weg und die Datenbank wahrscheinlich korrupt.
Neeee, das lassen wir mal besser.

Controller mit eigenem Cache, das ist die richtige Wahl.
Ob nun SCSI oder SATA, mit vernünftigem Controller und vernünftigem Cachemanagement macht das keinen großen Unterschied mehr.

Warum große Platten?
Weil man Platten nehmen muss deren Platter voll ausgereitzt sind. Künstlich kastrierte Modelle um kleinere anbieten zu können sind langsamer. Hater das Platter 120GB, muss man auch die 120er Version nehmen und nicht die 80er. Es gibt leider keine schnellen 20GB Modelle mehr.

Die 36GB Raptor ist auch langsamer als die 72GB Version (aber nicht wegen obigem Fall).
 
4 GB Ram klingt mir was wenig.

Zu den Platten: Ob die dafür spezifiziert sind oder nicht, aktuelle Hitachis laufen astrein im Dauerbetrieb, kann seit ich von Maxtor weg bin in der Firma bei kanpp 100 Hitachis nur einen Ausfall melden.

Zum Controller:
Nur weils da ein paar Sources für Linux gibt heißt das noch lange nicht, dass ein Controller vernünftig unter Linux zu gebrauchen ist.
Nehmt auf jeden Fall 3Ware, bisher hab ich alles andere was billiger war unter Linux nur rumspacken sehen.
Ob 4 Platten benötigt werden weiß ich nicht, wie wärs mit 2 73er Raptor im Raid1 an nem Escalade 8006-2 in nem Low Profile Case.
Für Backups evtl. noch ne einzelne 7k250 dazu.
 
ziemlich gut geraten, es sollten knapp 4 GB sein.

Allerdings sind in Zukunft Erweiterungen geplant, die das Ganze noch ein wenig aufblaehen werden.

Hatte mal ein Test gelesen, wo drin stand, dass eine DB maximale Performance liefert wenn der RAM mindest 1,6 mal so groß wie die DB ist. Allerdings muss das auch anders gehen, irgendwann wird der RAM unbezahlbar.

@ Die Leute die eine RAM-Disk fordern

Eine RAM-Disk ist sinnlos. Die Datenbanksoftware versucht trotzdem immer so viel wie möglich in den RAM zu laden, sie weiß ja nicht, dass die DB auf einer RAM-Disk liegt. Im Endeffekt hätte man dann die DB zu großen Teilen zweimal im RAM aber keine Performance gewonnen und nur sinnlos RAM verschwendet und teuer bezahlt.
 
Läuft das tägliche Backup über den Hoster oder muss das selber irgendwo abgelegt werden?
 
Hi..

Und Datensicherheit kann bei einer Ramdisk nicht gewährleistet werden, da kann man gleich die Daten auf eine defekte sichern. *g*
 
Läuft das tägliche Backup über den Hoster oder muss das selber irgendwo abgelegt werden?

Ich kann nur für HardTecs4U sprechen und da gibt es kein Backup vom Hoster. Bei einem eigenen Server ist er auch nicht wirklich möglich, da er ja dann an die Daten herankommen müsste, sprich Root-Zugang. Bei usn erledigt das ein selbstgeschriebenes Script, was zweimal pro Tag die DB sichert und einmal pro Tag die Seite an sich. Die 40GB Platte bei uns reicht vollkommen aus, um die letzten 10 Tage als Backup vorzuhalten.
 
Zum Controller:
Nur weils da ein paar Sources für Linux gibt heißt das noch lange nicht, dass ein Controller vernünftig unter Linux zu gebrauchen ist.
Nehmt auf jeden Fall 3Ware, bisher hab ich alles andere was billiger war unter Linux nur rumspacken sehen.

aus reiner neugierde - hattest du schon mal n Areca controller?

cya
 
Zum Controller:
Nur weils da ein paar Sources für Linux gibt heißt das noch lange nicht, dass ein Controller vernünftig unter Linux zu gebrauchen ist.
Nehmt auf jeden Fall 3Ware, bisher hab ich alles andere was billiger war unter Linux nur rumspacken sehen.
Ob 4 Platten benötigt werden weiß ich nicht, wie wärs mit 2 73er Raptor im Raid1 an nem Escalade 8006-2 in nem Low Profile Case.
Für Backups evtl. noch ne einzelne 7k250 dazu.
hab in zwei verschieden server(beide opteron) ohne probleme zum laufen gebracht(debian). Arbeit von 20min. 11min hatte er zum compilieren gebracht. von der geschwindigkeit her ist er schneller als der 3ware!
mfg deaken
 
laut Nero24 laufen die alten server auch mit nem scsi-raid5.

http://www.planet3dnow.de/vbulletin/showthread.php?p=2498215#post2498215

wenn es ins budget passt, würde ich dann evtl. weiterhin auf scsi setzen setzen. vielleicht wie anfangs erwähnt sogar eine sas-lösung auf pci-e basis. *noahnung*

keine frage, man kann auch heute auch mit herkömmlichen sata-platten ne menge machen, aber insofern es bezahlbar bleibt, würde ich auch scsi/sas den vorzug geben.
 
Ob du es zum Laufen bekommst ist fast schon unwichtig.
Im Zweifelsfall muss jemand, der das System nicht kennt das Ding mit Standardmitteln zum laufen bringen können.

Soll heißen wenn Nero in nem Jahr beim Kernel-Update den Bootloader killt und der Technicker im RZ das fixen muss, dann wird der vermutlich keine Rescue-CD mit irgendwelchen exotischen Treibern parat haben.

Was mit dem Linux Standard-Kernel ohne Extra-Module nicht funktioniert ist imo absolut nicht rechenzentrumstauglich, es sei denn man hat remote Kontrolle bis auf BIOS-Ebene, was hier nicht gegeben ist.
Es nützt nichts wenn man da 50 Euro beim Controller sparen kann, der Image-, Zeit- und Geldverlust im Falle eines Ausfalles lässt einen da doppelt und dreifach draufzahlen.

@BLJ: nein, hatte ich noch nicht.
Hast du schonmal in nem RZ gearbeitet und dich um Rechner gekümmert, die nicht mehr booten wollten ?
 
Ui, Ui, Ui, hier wird ja hitzig diskutiert :)

Also, ein paar Anmerkungen zur Konkretisierung einiger Punkte.

Wir werden auf keinen Fall auf einen Onboard-Raid-Controller vertrauen, gleich ob Onboard-SCSI oder Onboard-SATA. Zum einen belasten die die CPU unnötig, zum zweiten schränkt es die Flexibilität ein. Wenn wir irgendwann aus irgendeinem Grund das Board tauschen müssen (keine Ahnung warum; z.B. weil es Stabilitätsprobleme gibt), dann dürfen wir das ganze System neu aufsetzen. Mit einem separaten Raid-Controller nehmen wir das komplette Set samt Controller einfach mit und gut ist's.

Dass das Betriebssystem nicht auf einem Raid-5 liegen sollte, ist richtig. Habe ich vergessen und macht wenig Sinn.

Apropos Raid-5. Ich bestehe nicht unbedingt auf Raid-5. Es ist für mich nur die Form von Raid, die mich technisch am meisten begeistert. Möglicherweise haben unsere aktuellen Performance-Probleme sogar damit zu tun, dass wir auf Raid-5 liegen. Es stimmt, gerade die Schreibperformance ist bei Raid-1/10 deutlich besser. Ich werde das nochmal durchrechnen.

Zur Schnittstelle: natürlich wäre langfristig gedacht ein PCI-Express Controller die sinnvollste Lösung. Dummerweise gehts einem hier ähnlich wie mit Soundkarten: es gibt kaum welche und wenn dann nur deutlich teurer. Warum hier nicht auf bewährtes PCI-X Material zurückgreifen? Die haben die Kinderkrankheiten wenigstens schon hinter sich.

Die aktuelle Größe der Forumsdatenbank beträgt ungefähr 5 GB. Wenn in Zukunft das Newsssystem und die Artikel und die Bilder etc. noch dazu kommen, werden es ganz sicher über 8 GB, also zu viel, um alles im Cache oder gar in einer RAMDisk zu halten. Insofern sind schnelle und zuverlässige Festplatten durch massig RAM kaum zu ersetzen.

Aber weil gerade das Stichwort RAMDisk fällt. Hat schon jemand bei einem Server Erfahrungen gesammelt mit den externen RAMDisks, die es vereinzelt gibt? In Sachen Performance und gerade in Sachen Latenz wäre das doch das Nonplusultra. Einmal am Tag, Nachts um halb 5, wenn auf P3D am wenigsten los ist, ein Backup auf eine simple IDE-Platte (die sonst den ganzen Tag im Standby verweilen kann). Erfahrungen? Anregungen? Ich weiß, ist eher theoretischer Natur ;) würde mich aber reizen.
 
Ich kann nur für HardTecs4U sprechen und da gibt es kein Backup vom Hoster. Bei einem eigenen Server ist er auch nicht wirklich möglich, da er ja dann an die Daten herankommen müsste, sprich Root-Zugang. Bei usn erledigt das ein selbstgeschriebenes Script, was zweimal pro Tag die DB sichert und einmal pro Tag die Seite an sich. Die 40GB Platte bei uns reicht vollkommen aus, um die letzten 10 Tage als Backup vorzuhalten.

Ich meinte anders herum, der Hoster stellt Backupspace (wie es ja bei jedem Billighoster bereits üblich ist) und man lädt es selber (per script) hoch.
 
Ich meinte anders herum, der Hoster stellt Backupspace (wie es ja bei jedem Billighoster bereits üblich ist) und man lädt es selber (per script) hoch.

Hmm, naja ich weiß nur, dass bei normalen Webspaceprodukten automatisch ein Backup gemacht wird, wenn denen die Kiste abraucht, dass dann die Webpräsenz einfach aus dem Backup auf eine andere Maschine geschoben wird, so dass der Kunde meist nichts vom Ausfall mitbekommt.

Bei dedicated Produkten ist das meist nicht möglich, da für ein vollständiges Update Root-Rechte erforderlich sind. Extra Platz auf einem anderen Server kostet dann meist extra. Am besten ist es sowieso neben den regelmäßigen Backups auf das RAID1-System des Servers auch mal Backups nach Hause zu transferieren. In Zeiten von DSL sollte das möglich sein. Gesetz dem Fall, dass denen dort doch mal ein Meteorit ins Rechenzentrum fällt, steht man dann nicht vollkommen dumm da. ;D
 
hi,

nur mal ein tip, bei raid5 sollte man 2^n+1 platten verwenden, damit das filesystem 1:1 draufmappt mit seinen 2^n writes. s. http://it.slashdot.org/comments.pl?sid=169274&cid=14144791

ob das auf hardware-controller auch zutrifft, weiss ich nicht genau. nehmt also lieber 3x120G als 4x80G.

edit: oder natuerlich, wo ich jetzt den anfang des threads sehe, lieber raid-1 fuer db-intensive sachen.
 
Ui, Ui, Ui, hier wird ja hitzig diskutiert :)

Aber weil gerade das Stichwort RAMDisk fällt. Hat schon jemand bei einem Server Erfahrungen gesammelt mit den externen RAMDisks, die es vereinzelt gibt? In Sachen Performance und gerade in Sachen Latenz wäre das doch das Nonplusultra.

Hi, wir hatten sowas bei meinem Bankkunden mit Online-Banking im Einsatz
.
Wir hatten da eine RAMDISK-Platte mit SCSI Anschluss. Diese war komplett mit Battery-Backup plus interner Festplatte abgesichtert.
Dh. bei einem Stromausfall hat diese alles auf die interne Festplatte geschrieben.
Von der Latenz und Perfomance war das Ding der Wahnsinn.

Wir brauchten die Ramdisk für spezielle kritische DB Files. Sie hat sich dort absolut bewährt.
Die Performance war ohne nicht erreichbar.

Aber auf dem PC Sektor kenne ich sowas ausgefeiltes nicht.

lg
tom
 
8GB Ram heist net Ramdisk, das ist ein gewisser Unterschied. Der große RAM soll als Cache herhalten, und da müssen eben nicht alle 5 Minuten 4GB geschrieben werden, desswegen wurden unter Anderem auch Schreibcaches erfunden...

Eine wirkliche Ramdisk find ich auch net so toll, aber bei 8GB Ram bleiben locker 5GB für Dateisystemcaches übrig.

Der teure Raid-Controller erübrigt sich dann auch, für Raid 1 braucht man weder einen mit übermäßig viel Ram (wenn das System 8GB hat ist es wurscht ob auf dem Controller 128MB sitzen), noch einen mit teurer CPU. Und von der Leistungsfähigkeit stellen 5GB Dateisystemcache jedes Raid in den Schatten.
 
Ui, Ui, Ui, hier wird ja hitzig diskutiert :)

Zur Schnittstelle: natürlich wäre langfristig gedacht ein PCI-Express Controller die sinnvollste Lösung. Dummerweise gehts einem hier ähnlich wie mit Soundkarten: es gibt kaum welche und wenn dann nur deutlich teurer. Warum hier nicht auf bewährtes PCI-X Material zurückgreifen? Die haben die Kinderkrankheiten wenigstens schon hinter sich.

Aber hallo, wie kommst du denn darauf, dass die PCI-E Lösung teurer ist??
Habe letztens einen 3Ware auf Kundenwunsch in eine VideoEd-Station verbaut (DualX**n) und muss sage: Performance trotz PCI-X unter aller, Preis (EK) mit über 345 netto rund ein drittel teurer als der vglb. Areca PCI-E und dann kommt noch etwas dazu - die RAID Console, die für's Managen, Fehlererkennung und Mail verantwortlich ist, ist bei 3Ware ein Grauss. Allerdings kann ich diese Aussage nur für WIN machen, aber ich glaub für Linux gibts da garnix. Überlegt euch gut, ob ihr nicht doch lieber auf eine erprobte SCSI Lösung setzen wollt.

Tom
 
Hallo

Hat sich schon jemand den SATA RAID-Controller(PCIe) ARC1220 mit Unterstützung für RAID 6 angeschaut ?

Bei Tom's Hardware hat er sehr gut abgeschnitten...
Ich kann leider keinen Link setzen - muß erst 5 Beiträge haben *traurig*

Grüße

jhvaso
 
Hat sich schon jemand den SATA RAID-Controller(PCIe) ARC1220 mit Unterstützung für RAID 6 angeschaut ?

vom areca war doch nun schon auf den letzten seiten die rede :]

aber wo ich gerade den test bei tomshardware sehe, wenn man sich für pci-x entscheiden sollte, kann man sich auch mal bei lsi logic oder adaptec umschauen.
 
Hi..

@Nero,

wie ich sehe wurden ja teils die Serverkomponenten im Hardwarethread schon rausgesucht, aber warum Samsung ! - die Hitachi wäre für das Raid-5 besser geeignet, und dürfte wohl dank ihren 8MB-Cache, einen hohen AI durchaus besser sein, und bietet 3Jahre Garantie, und bei Samsung weiß man eben nicht was man hat...... mit den Hitachi sollte man weitaus weniger Probleme bekommen, und sind mit alten IBM in nichts mehr zuvergleichen.

http://www.geizhals.at/a139270.html , sind die Samsung billiger ?

Würde 4 davon verwenden,...........

Und was den Controller angeht, falls das Board mit NV-Chipsatz in die Wahl kommt, da es ja PCI-E x und PCI-X hat den Arcera Controller ebenfalls mit einbeziehen, und den jeweils besseren dann verwenden.
 
Hey, cruger, das solltest du wissen.
Anwendungsindex, h2benchw... ist doch dein Steckenpferd.
;)
 
Ich mische mich einfach mal so ein, ohne das Topic zu lesen - Wenn es ein Raid 5 sein darf (sollte ...) - 3ware oder auch broadcom - nichts anderes.

;)
 
Hey, cruger, das solltest du wissen.
Anwendungsindex, h2benchw... ist doch dein Steckenpferd.
;)

wenn er darauf abgezielt hat ?

der anwendungsindex bildet typische alltagsanwendungen unter windows xp ab.

dabei sagt der ai genauso viel über die server-tauglichkeit von festplatten aus wie hd tach über die performance einer platte generell. (sprich gar nichts) :]

es gibt da ja dieses schöne phänomen, daß manche aktuelle highend-scsi-platten beim ai selbst hinter betagten 2,5" platten zurückbleiben, da die platten offensichtlich stark auf zugriffsmuster von servern optimiert wurden.
 
Zurück
Oben Unten