App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Intern: Sonnenuntergang auf dem grünen Planeten
- Ersteller Nero24
- Erstellt am
Vergangenes Wochenende hatten wir relativ kurzfristig eine Downtime von Planet 3DNow! <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1174721825">angekündigt</A>, ohne - wie sonst bei uns üblich - ausführlich zu erläutern, was gemacht werden soll und gemacht worden ist. Das möchten wir heute nachholen.
Nachdem Euer neuer Community-Server - aka Das Boot - <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1136883544">seit Anfang 2006 online</a> ist und zuverlässig seinen Dienst verrichtete, hatten wir aufgrund der massiv gestiegenen Besucherzahlen bereits Mitte Februar 2007 <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1172067659">ankündigen</A> müssen, dass die Maschine ein umfangreiches Hard- und Software Upgrade bekommen würde. Neue Prozessoren, einen Satz neuer Festplatten und vor allem ein neues Betriebssystem: Sun Solaris 10. Die Euphorie war riesig. Ein professionelles Server-Betriebssystem für den grünen Planeten, dazu eine Hardware, die Bäume ausreißen konnte. Gleich am ersten Tag ließ der Server seine Muskeln spielen. Ein neuer Besucher-Rekord, sowohl auf der Webseite, als auch im Forum und das mit einer Geschwindigkeit, die einen eher an statische HTML-Files im LAN, denn an dynamisch generierte PHP-Files auf einem Webserver schließen ließ, deuteten auf eine rosige Zukunft hin. Doch es sollte anders kommen...
Bereits 4 Tage nach der Inbetriebnahme des aufgerüsteten Servers <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173100593">ereilte</A> uns aus heiterem Himmel und ohne Vorwarnung der Super-Gau für jeden Administrator: ein Totalabsturz des Systems und eine trotz Raid-1 regelrecht zerstückelte System-Partition. Der Schuldige war schnell ausgemacht. Ein fehlerhaft arbeitender SATA-Controller schien die System-Partition vernichtet zu haben. Zwar blieben von Anfang an Fragen offen - schließlich hatte uns dieser Controller bereits ein Jahr lang zuverlässig als Backup-Controller gedient - aber zunächst schien sich die alte Admin-Weisheit zu bewahrheiten, dass SCSI für einen stark frequentierten Webserver die einzig richtig Lösung ist. Allerdings hatten wir auch den Sil3114-Treiber unter Solaris (Status "known to work") auf der Rechnung. Aus verständlichen Gründen hatten wir allerdings nicht die Muse herauszufinden, ob nun der Controller oder der Treiber an der Misere schuld war. Gott Lob war den Daten - also den Inhalten der Webseite - nichts passiert. Die lagen auf einem SCSI-Raid. Nach fast 4 Tagen Downtime konnten wir den Server - nun in einer SCSI-only Konfiguration - wieder online bringen und glaubten uns über den Berg.
Allerdings hatten wir hier die Rechnung ohne den Wirt gemacht. Im Abstand von ein bis drei Tagen verabschiedete sich der Server mit einer kernel panic - vergleichbar einem Bluescreen unter Windows. Ein erster Blick in das dumpfile brachte zum Vorschein, dass der Absturz irgendetwas mit dem Netzwerk oder dem Netzwerk-Controller zu tun haben musste. Nur was? Nach dem fehlerhaften SATA-Treiber nun etwa auch noch ein fehlerhafter Broadcom-Treiber? Langsam machte sich Ernüchterung breit. Nach einem Jahr beinahe sorgenfreien Betriebs des Boot 1.0 nun Hiobsbotschaften im Tagesrhythmus. Haben wir beim Hardware-Upgrade irgendetwas falsch gemacht? Unsere Standard-Stabilitätstests unter Knoppix sagten "Nein". Alles ok. Hatten die neuen Hardware-Komponenten einen Patscher? Oder war es etwa ein Fehler auf Solaris 10 zu setzen? Noch tappten wir im Dunkeln.
Nach ein paar weiteren Abstürzen und etlichen Stunden Fehlersuche offenbarte sich ein erster Strohhalm an den wir uns klammern konnten. Die Bugbeschreibung <i>"On Solaris 10 Kernel Memory Corruption May be Seen in TCP/IP Under High Stress Resulting in a System Panic"</i> schien wie die Faust auf's Auge zu unserem Problem zu passen. Ein bisher nicht eingespielter Patch sollte alle Probleme lösen. Leider ein Trugschluss. Der Server zickte nach wie vor im 2-Tages Rhythmus herum und das ausgerechnet zur CeBIT. CeBIT? Genau! Sun ist doch auch auf der CeBIT, also schickten wir unsere "schnelle Eingreiftruppe" in Hannover rasch am Sun-Stand vorbei, um von unseren merkwürdigen Phänomenen zu berichten und hoffentlich einen guten Tipp zu erhalten. Allerdings war das Gespräch unerwartet schnell zu Ende. Wenn wir einen Supportvertrag für 240 US-Dollar im Jahr - oder am besten den Premium-Support für 1040 US-Dollar - abschließen würden, bekämen wir jede Hilfe die wir bräuchten. Außerdem könnten wir ja einen Sun Fire Server erwerben wenn wir wollen. Wir wollen nicht...
Hilfe bekamen wir weiterhin aus zwei Quellen. Einmal von unserem Community-Mitglied Mogul, zum anderen von Jörg Möllenkamp, der als Beschäftigter bei Sun einen <a href="http://www.c0t0d0s0.org" TARGET="_blank">Blog</a> u.a. zum Thema Solaris betreibt und sich unsere crashdumps genauer angesehen hat. Über diese Quellen mussten wir zum Beispiel auch erfahren, dass es von Sun noch wesentlich mehr Patches gibt, als die ohnehin schon zahlreichen, die wir bereits eingespielt hatten. Allerdings bleiben die normalerweise den zahlenden Kunden vorbehalten. Erste Zweifel am Support-Modell von Sun machten sich breit. Kostenpflichtiger Support für individuelle Beratung oder für die Bereitstellung spezieller Features, ok. Aber zahlen für kritische Updates, damit das OS überhaupt stabil zu betreiben ist? Das war nicht mit unserer Auffassung von Support zu vereinbaren. Wie der Zufall es will gab es in diesem Pool einen weiteren Patch, der das Problem beheben sollte. Über inoffizielle Kanäle haben wir ihn auch zum Testen erhalten. Nach drei Tagen aber wieder das selbe Problem: Kernel Panic.
Das war der Punkt, an dem wir endgültig die Nase voll hatten. Seit Ende Februar hatten wir wegen der fortwährenden Probleme mit dem System mehr als 4.500 km zurückgelegt. Mehr als 600 Mann-Stunden hatte das Projekt seitdem verschlungen. Wohlgemerkt neben der normalen Arbeit, denn Planet 3DNow! ist für alle Beteiligten lediglich ein - wenn auch inzwischen sehr zeitaufwändiges - Hobby. Die 4-tägige Downtime Anfang März hat den grünen Planeten zudem bis heute fast ein Drittel an Besuchern gekostet und im Forum machte sich selbst bei den Stammbesuchern langsam Unmut breit über die zahlreichen Ausfälle durch sowohl die Abstürze, als auch die geplanten Downtimes beim Einspielen von Patches oder beim Reparieren von bei Abstürzen zerschossener Dateien. Dass unsere Frauen in den letzten Tagen auffällig häufig in den gelben Seiten unter "Scheidungsanwälte" blätterten, sei nur nebenbei erwähnt.
Nein, irgendwann einmal musste Schluss sein. Die zwei Hauptgründe für die Wahl von Solaris war das ZFS-Dateisystem sowie die unerschütterliche Stabilität, die dem Betriebssystem nachgesagt wird. Dieser Nimbus jedoch war bei uns auf alle Zeit zerstört, das Vertrauen dahin. Wir ertappten uns schon dabei im Dreischicht-Betrieb Serverwachen zu halten, damit wenigstens einer der Admins online ist, um zerfetzte Dateien wiederherstellen zu können, wenn der Server eine seiner Panik-Attacken hinter sich hatte. Mag sein, dass Solaris 10 auf Sun-Servern mit einer schmalen Bandbreite an eingesetzter Hardware und allen kostenpflichtigen Patches tatsächlich völlig problemlos arbeitet, auf unserer Maschine jedoch war das OS rückblickend ein teurer und zeitaufwändiger Mißgriff. Die einzige Möglichkeit das ZFS-Dateisystem als Feature nicht zu verlieren, wäre gewesen von Solaris 10 auf OpenSolaris zu wechseln. Aber ob das die Probleme auf unserer Maschine behoben hätte, konnte niemand mit Bestimmtheit vorher sagen. Nein, das Wichtigste, das wir nun brauchten, war Stabilität, um Vertrauen in den Server, bei den Besuchern und Besucher an sich zurück zu gewinnen, um im Reallife wieder ein Leben neben Planet 3DNow! führen zu können und vor allem um wieder ruhigen Gewissens ins Bett gehen zu können ohne fürchten zu müssen, dass am nächsten Tag ein weiterer Tiefflug nach Frankfurt bevorstehen könnte, um das System wiederzubeleben. Daher haben wir am zurückliegenden Wochenende in einem weiteren (und hoffentlich für lange Zeit letzten) Frankfurt-Aufenthalt Solaris 10 wieder vom Server geworfen und ein aktuelles Gentoo-Linux AMD64 installiert. Mit der Bekanntgabe dessen wollten wir allerdings warten bis sicher war, dass wir Solaris 10 nicht unrecht tun, dass die Probleme nicht etwa doch trotz aller bestandener Hardware-Stabilitätstests durch eine beim Upgrade beschädigte Komponente verursacht wurden. Wenig überraschend jedoch ist der Server seitdem wieder fromm wie ein Lamm.
Umso ärgerlicher ist unser Fehlschlag mit Solaris, da wir so gut vorbereitet wie noch nie in dieses Projekt gingen. Schon Wochen vor dem Upgrade lief Solaris auf einem Spiegelserver im Testbetrieb - völlig ohne Probleme wie es schien. Dort wurde auch die Konfiguration verfeinert, die Applikationen wurden installiert und angepasst - alles um eventuellen Problemen auf die Spur zu kommen, ehe das System auf der Produktiv-Maschine landet. Eines allerdings fehlte auf dem Testserver natürlich: fortwährende(r) und praxisbezogene(r) Last/Traffic über Tage hinweg.
So verlassen wir Solaris mit einem lachenden und einem weinenden Auge. Mit einem lachenden logischerweise, weil der Server nun mit Linux endlich wieder stabil arbeitet, weil wir nun wieder Anwendungen einsetzen können, die uns mit Solaris verwehrt waren (eaccelerator oder sämtliche Distributed Computing Anwendungen, bei denen P3D mit einem Team mitmischt), mit einem weinenden allerdings, da Solaris in den Tagen zwischen den Abstürzen sein Potenzial eindrucksvoll angedeutet hat. Eine traumhaft niedrige Systemlast verglichen mit Gentoo zum Beispiel, obwohl Gentoo in der Linux-Welt bereits als die mit am besten optimierte Distribution gilt. Oder die beispielhafte Performance des ZFS-Dateisystems, das lesend vom Raid-1 eine Readspeed von über 200 MB/s zu Stande brachte, während wir mit ext3 in der selben Konfiguration unter Linux nun wieder bei 90 MB/s dümpeln. Aber sei's drum.
Bedanken möchten wir uns an dieser Stelle noch bei Mogul, der uns alle Hilfe anbat, die er uns geben konnte, bei Jörg Möllenkamp der einerseits bei der crashdump-Analyse half, andererseits sich als Sun-Mann in seinem Blog aber auch leider zu der ein oder anderen unnötigen geringschätzigen Bemerkungen über unsere Admins hinreißen ließ, nachdem erste Kritik am OS bzw. am Supportmodell laut wurde; bei unseren beiden technischen Administratoren D'Espice und tomturbo, die in den letzten 6 Wochen scheinbar einen Weg gefunden haben die Raumzeit zu krümmen, um all die Zeit, die der Server für sich beanspruchte, irgendwo unterzubringen und natürlich bei unseren Besuchern, die nun wahrlich mehr als genug Geduld aufbringen mussten, wenn das Boot mal wieder im Trockendock stand und uns trotzdem (zumindest in der Mehrheit) nicht den Rücken kehrten. So kann auf dem grünen Planeten nun hoffentlich wieder Normalität einkehren.
Nachdem Euer neuer Community-Server - aka Das Boot - <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1136883544">seit Anfang 2006 online</a> ist und zuverlässig seinen Dienst verrichtete, hatten wir aufgrund der massiv gestiegenen Besucherzahlen bereits Mitte Februar 2007 <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1172067659">ankündigen</A> müssen, dass die Maschine ein umfangreiches Hard- und Software Upgrade bekommen würde. Neue Prozessoren, einen Satz neuer Festplatten und vor allem ein neues Betriebssystem: Sun Solaris 10. Die Euphorie war riesig. Ein professionelles Server-Betriebssystem für den grünen Planeten, dazu eine Hardware, die Bäume ausreißen konnte. Gleich am ersten Tag ließ der Server seine Muskeln spielen. Ein neuer Besucher-Rekord, sowohl auf der Webseite, als auch im Forum und das mit einer Geschwindigkeit, die einen eher an statische HTML-Files im LAN, denn an dynamisch generierte PHP-Files auf einem Webserver schließen ließ, deuteten auf eine rosige Zukunft hin. Doch es sollte anders kommen...
Bereits 4 Tage nach der Inbetriebnahme des aufgerüsteten Servers <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1173100593">ereilte</A> uns aus heiterem Himmel und ohne Vorwarnung der Super-Gau für jeden Administrator: ein Totalabsturz des Systems und eine trotz Raid-1 regelrecht zerstückelte System-Partition. Der Schuldige war schnell ausgemacht. Ein fehlerhaft arbeitender SATA-Controller schien die System-Partition vernichtet zu haben. Zwar blieben von Anfang an Fragen offen - schließlich hatte uns dieser Controller bereits ein Jahr lang zuverlässig als Backup-Controller gedient - aber zunächst schien sich die alte Admin-Weisheit zu bewahrheiten, dass SCSI für einen stark frequentierten Webserver die einzig richtig Lösung ist. Allerdings hatten wir auch den Sil3114-Treiber unter Solaris (Status "known to work") auf der Rechnung. Aus verständlichen Gründen hatten wir allerdings nicht die Muse herauszufinden, ob nun der Controller oder der Treiber an der Misere schuld war. Gott Lob war den Daten - also den Inhalten der Webseite - nichts passiert. Die lagen auf einem SCSI-Raid. Nach fast 4 Tagen Downtime konnten wir den Server - nun in einer SCSI-only Konfiguration - wieder online bringen und glaubten uns über den Berg.
Allerdings hatten wir hier die Rechnung ohne den Wirt gemacht. Im Abstand von ein bis drei Tagen verabschiedete sich der Server mit einer kernel panic - vergleichbar einem Bluescreen unter Windows. Ein erster Blick in das dumpfile brachte zum Vorschein, dass der Absturz irgendetwas mit dem Netzwerk oder dem Netzwerk-Controller zu tun haben musste. Nur was? Nach dem fehlerhaften SATA-Treiber nun etwa auch noch ein fehlerhafter Broadcom-Treiber? Langsam machte sich Ernüchterung breit. Nach einem Jahr beinahe sorgenfreien Betriebs des Boot 1.0 nun Hiobsbotschaften im Tagesrhythmus. Haben wir beim Hardware-Upgrade irgendetwas falsch gemacht? Unsere Standard-Stabilitätstests unter Knoppix sagten "Nein". Alles ok. Hatten die neuen Hardware-Komponenten einen Patscher? Oder war es etwa ein Fehler auf Solaris 10 zu setzen? Noch tappten wir im Dunkeln.
Nach ein paar weiteren Abstürzen und etlichen Stunden Fehlersuche offenbarte sich ein erster Strohhalm an den wir uns klammern konnten. Die Bugbeschreibung <i>"On Solaris 10 Kernel Memory Corruption May be Seen in TCP/IP Under High Stress Resulting in a System Panic"</i> schien wie die Faust auf's Auge zu unserem Problem zu passen. Ein bisher nicht eingespielter Patch sollte alle Probleme lösen. Leider ein Trugschluss. Der Server zickte nach wie vor im 2-Tages Rhythmus herum und das ausgerechnet zur CeBIT. CeBIT? Genau! Sun ist doch auch auf der CeBIT, also schickten wir unsere "schnelle Eingreiftruppe" in Hannover rasch am Sun-Stand vorbei, um von unseren merkwürdigen Phänomenen zu berichten und hoffentlich einen guten Tipp zu erhalten. Allerdings war das Gespräch unerwartet schnell zu Ende. Wenn wir einen Supportvertrag für 240 US-Dollar im Jahr - oder am besten den Premium-Support für 1040 US-Dollar - abschließen würden, bekämen wir jede Hilfe die wir bräuchten. Außerdem könnten wir ja einen Sun Fire Server erwerben wenn wir wollen. Wir wollen nicht...
Hilfe bekamen wir weiterhin aus zwei Quellen. Einmal von unserem Community-Mitglied Mogul, zum anderen von Jörg Möllenkamp, der als Beschäftigter bei Sun einen <a href="http://www.c0t0d0s0.org" TARGET="_blank">Blog</a> u.a. zum Thema Solaris betreibt und sich unsere crashdumps genauer angesehen hat. Über diese Quellen mussten wir zum Beispiel auch erfahren, dass es von Sun noch wesentlich mehr Patches gibt, als die ohnehin schon zahlreichen, die wir bereits eingespielt hatten. Allerdings bleiben die normalerweise den zahlenden Kunden vorbehalten. Erste Zweifel am Support-Modell von Sun machten sich breit. Kostenpflichtiger Support für individuelle Beratung oder für die Bereitstellung spezieller Features, ok. Aber zahlen für kritische Updates, damit das OS überhaupt stabil zu betreiben ist? Das war nicht mit unserer Auffassung von Support zu vereinbaren. Wie der Zufall es will gab es in diesem Pool einen weiteren Patch, der das Problem beheben sollte. Über inoffizielle Kanäle haben wir ihn auch zum Testen erhalten. Nach drei Tagen aber wieder das selbe Problem: Kernel Panic.
Das war der Punkt, an dem wir endgültig die Nase voll hatten. Seit Ende Februar hatten wir wegen der fortwährenden Probleme mit dem System mehr als 4.500 km zurückgelegt. Mehr als 600 Mann-Stunden hatte das Projekt seitdem verschlungen. Wohlgemerkt neben der normalen Arbeit, denn Planet 3DNow! ist für alle Beteiligten lediglich ein - wenn auch inzwischen sehr zeitaufwändiges - Hobby. Die 4-tägige Downtime Anfang März hat den grünen Planeten zudem bis heute fast ein Drittel an Besuchern gekostet und im Forum machte sich selbst bei den Stammbesuchern langsam Unmut breit über die zahlreichen Ausfälle durch sowohl die Abstürze, als auch die geplanten Downtimes beim Einspielen von Patches oder beim Reparieren von bei Abstürzen zerschossener Dateien. Dass unsere Frauen in den letzten Tagen auffällig häufig in den gelben Seiten unter "Scheidungsanwälte" blätterten, sei nur nebenbei erwähnt.
Nein, irgendwann einmal musste Schluss sein. Die zwei Hauptgründe für die Wahl von Solaris war das ZFS-Dateisystem sowie die unerschütterliche Stabilität, die dem Betriebssystem nachgesagt wird. Dieser Nimbus jedoch war bei uns auf alle Zeit zerstört, das Vertrauen dahin. Wir ertappten uns schon dabei im Dreischicht-Betrieb Serverwachen zu halten, damit wenigstens einer der Admins online ist, um zerfetzte Dateien wiederherstellen zu können, wenn der Server eine seiner Panik-Attacken hinter sich hatte. Mag sein, dass Solaris 10 auf Sun-Servern mit einer schmalen Bandbreite an eingesetzter Hardware und allen kostenpflichtigen Patches tatsächlich völlig problemlos arbeitet, auf unserer Maschine jedoch war das OS rückblickend ein teurer und zeitaufwändiger Mißgriff. Die einzige Möglichkeit das ZFS-Dateisystem als Feature nicht zu verlieren, wäre gewesen von Solaris 10 auf OpenSolaris zu wechseln. Aber ob das die Probleme auf unserer Maschine behoben hätte, konnte niemand mit Bestimmtheit vorher sagen. Nein, das Wichtigste, das wir nun brauchten, war Stabilität, um Vertrauen in den Server, bei den Besuchern und Besucher an sich zurück zu gewinnen, um im Reallife wieder ein Leben neben Planet 3DNow! führen zu können und vor allem um wieder ruhigen Gewissens ins Bett gehen zu können ohne fürchten zu müssen, dass am nächsten Tag ein weiterer Tiefflug nach Frankfurt bevorstehen könnte, um das System wiederzubeleben. Daher haben wir am zurückliegenden Wochenende in einem weiteren (und hoffentlich für lange Zeit letzten) Frankfurt-Aufenthalt Solaris 10 wieder vom Server geworfen und ein aktuelles Gentoo-Linux AMD64 installiert. Mit der Bekanntgabe dessen wollten wir allerdings warten bis sicher war, dass wir Solaris 10 nicht unrecht tun, dass die Probleme nicht etwa doch trotz aller bestandener Hardware-Stabilitätstests durch eine beim Upgrade beschädigte Komponente verursacht wurden. Wenig überraschend jedoch ist der Server seitdem wieder fromm wie ein Lamm.
Umso ärgerlicher ist unser Fehlschlag mit Solaris, da wir so gut vorbereitet wie noch nie in dieses Projekt gingen. Schon Wochen vor dem Upgrade lief Solaris auf einem Spiegelserver im Testbetrieb - völlig ohne Probleme wie es schien. Dort wurde auch die Konfiguration verfeinert, die Applikationen wurden installiert und angepasst - alles um eventuellen Problemen auf die Spur zu kommen, ehe das System auf der Produktiv-Maschine landet. Eines allerdings fehlte auf dem Testserver natürlich: fortwährende(r) und praxisbezogene(r) Last/Traffic über Tage hinweg.
So verlassen wir Solaris mit einem lachenden und einem weinenden Auge. Mit einem lachenden logischerweise, weil der Server nun mit Linux endlich wieder stabil arbeitet, weil wir nun wieder Anwendungen einsetzen können, die uns mit Solaris verwehrt waren (eaccelerator oder sämtliche Distributed Computing Anwendungen, bei denen P3D mit einem Team mitmischt), mit einem weinenden allerdings, da Solaris in den Tagen zwischen den Abstürzen sein Potenzial eindrucksvoll angedeutet hat. Eine traumhaft niedrige Systemlast verglichen mit Gentoo zum Beispiel, obwohl Gentoo in der Linux-Welt bereits als die mit am besten optimierte Distribution gilt. Oder die beispielhafte Performance des ZFS-Dateisystems, das lesend vom Raid-1 eine Readspeed von über 200 MB/s zu Stande brachte, während wir mit ext3 in der selben Konfiguration unter Linux nun wieder bei 90 MB/s dümpeln. Aber sei's drum.
Bedanken möchten wir uns an dieser Stelle noch bei Mogul, der uns alle Hilfe anbat, die er uns geben konnte, bei Jörg Möllenkamp der einerseits bei der crashdump-Analyse half, andererseits sich als Sun-Mann in seinem Blog aber auch leider zu der ein oder anderen unnötigen geringschätzigen Bemerkungen über unsere Admins hinreißen ließ, nachdem erste Kritik am OS bzw. am Supportmodell laut wurde; bei unseren beiden technischen Administratoren D'Espice und tomturbo, die in den letzten 6 Wochen scheinbar einen Weg gefunden haben die Raumzeit zu krümmen, um all die Zeit, die der Server für sich beanspruchte, irgendwo unterzubringen und natürlich bei unseren Besuchern, die nun wahrlich mehr als genug Geduld aufbringen mussten, wenn das Boot mal wieder im Trockendock stand und uns trotzdem (zumindest in der Mehrheit) nicht den Rücken kehrten. So kann auf dem grünen Planeten nun hoffentlich wieder Normalität einkehren.
PuckPoltergeist
Grand Admiral Special
Öhm, mit wieviel Platten arbeitet ihr momentan im RAID? 200 MB/s deuten auf mindestens drei eher vier Platten hin. Irgendwie zweifelt es mir hier an den Messwerten.Eine traumhaft niedrige Systemlast verglichen mit Gentoo zum Beispiel, obwohl Gentoo in der Linux-Welt bereits als die mit am besten optimierte Distribution gilt. Oder die beispielhafte Performance des ZFS-Dateisystems, das lesend vom Raid-1 eine Readspeed von über 200 MB/s zu Stande brachte, während wir mit ext3 in der selben Konfiguration unter Linux nun wieder bei 90 MB/s dümpeln. Aber sei's drum.
Das möchte ich auch auf die Systemlast übertragen. Seid ihr sicher, dass die Messwerte vergleichbar sind? Nach meinen letzten Kenntnissen ist Linux seit NPTL Solaris in der Task- (Thread-)Verwaltung überlegen.
Was ZFS angeht, habe ich mich an anderer Stelle schon hinreichend abwertend geäußert. Dass es aber ext3 in der Performance um mehr als 100% überlegen ist, kann ich noch nicht so recht glauben. Sicher, öffentliche Benchmarks zeigen, dass es schnell ist. Aber ein derartiger Unterschied lässt mich erstmal unterschiedliche Messgrundlagen vermuten.
Surfer76
Vice Admiral Special
- Mitglied seit
- 22.11.2006
- Beiträge
- 826
- Renomée
- 1
- Aktuelle Projekte
- wechselhaft
- Lieblingsprojekt
- SETI
- Meine Systeme
- C2D E6400
- BOINC-Statistiken
Danke für die ausführliche Darlegung euer unermütlichen Arbeit.
Viele haben sich schon gefragt warum, keine richtigen Infos rauskamen, aber wenn man sich den Artikel genau durchliesst weiss man warum ihr zum Schluss gewartet habt.
Super Arbeit, und hoffen wir, dass ihr alle noch verheiratet seid.
Viele haben sich schon gefragt warum, keine richtigen Infos rauskamen, aber wenn man sich den Artikel genau durchliesst weiss man warum ihr zum Schluss gewartet habt.
Super Arbeit, und hoffen wir, dass ihr alle noch verheiratet seid.
http://www.c0t0d0s0.org/archives/2933-Planet3dnow-zurueck-auf-Linux.html
hier mal der link zum blog eintrag.
Ich denke Linux war nun eine gute entscheidung, es hätte evtl anders ausgesehen wenn man wüsste das Opensolaris stabil läuft
btw: Mit FUSE wolltet ihr euch nicht auseinander setzen? damit ist ja ZFS auch unter Linux möglich
hier mal der link zum blog eintrag.
Ich denke Linux war nun eine gute entscheidung, es hätte evtl anders ausgesehen wenn man wüsste das Opensolaris stabil läuft
btw: Mit FUSE wolltet ihr euch nicht auseinander setzen? damit ist ja ZFS auch unter Linux möglich
Zuletzt bearbeitet:
Die Messungen wurden sowohl unter Solaris, als auch unter Linux mit dem Befehl "hdparm -tT [DEVICE]" durchgeführt. Gemessen wurde dabei nur die Performance der beiden mirrored 15K SCSI Platten für die MySQL-DB. 90 MB/s ist dabei in etwa die Geschwindigkeit, die eine einzelne 15K-Platte an sequenzieller Lesegeschwindigkeit zustande bringt, 200 MB/s deuten auf zwei Platten hin. Wahrscheinlichste Erklärung: ext3 liest von beiden Platten parallel das Gleiche und checkt so die Integrität auch beim Lesen noch einmal. Damit ist die Geschwindigkeit nicht höher, als mit nur einer Platte. ZFS dagegen scheint sich beim Lesen auf seine integrierte Fehlerkorrektur zu verlassen und liest die Daten nicht einfach stumpf parallel, sondern wie ein Raid-0. Die Hardware (Laufwerke, Verkabelung, Controller) war in beiden Fällen identisch.Öhm, mit wieviel Platten arbeitet ihr momentan im RAID? 200 MB/s deuten auf mindestens drei eher vier Platten hin. Irgendwie zweifelt es mir hier an den Messwerten.
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.607
- Renomée
- 422
- Standort
- Bayern, am Rande des Wahnsinns
- Aktuelle Projekte
- Dieses und jenes
- BOINC-Statistiken
- Mein Laptop
- HP EliteBook 840 G2, Elitebook 850 G3
- Prozessor
- Ryzen7 5800X3D
- Mainboard
- Asus TUF B550 Plus
- Kühlung
- BeQuiet DarkRock4
- Speicher
- 4x16GB DDR4-3200 Crucial
- Grafikprozessor
- XFX RX6700XT 12GB
- Display
- 2x HP X27i
- SSD
- NVMe: 970EVO 1TB, SATA: WD Blue 1TB, 870QVO 4TB, Acer RE100 4TB, 870QVO 8TB
- Optisches Laufwerk
- LG BluRay-Brenner
- Soundkarte
- Realtek ALC1200
- Gehäuse
- Fractal Define R5
- Netzteil
- Seasonic Focus 650W
- Tastatur
- Keychron K4
- Maus
- Logitech MX518
- Betriebssystem
- Win10 Pro/64, Linux 64bit (wechselnd)
- Webbrowser
- Primär: Firefox, sekundär: Wechselnd
- Internetanbindung
- ▼100 MBit ▲32 MBit
Tja, hat nicht sollen sein.
Hoffen wir das das Boot wieder zuverlässig läuft wie vor dem Abenteuer Solaris.
Solaris an sich mag gut sein, aber es ist wohl für die "freie Wildbahn" wohl doch nicht so geeignet
Ich danke dem Team jedenfalls für seinen grossartigen Einsatz!
(und sollte ich mal ein paar Millionen im Lotto gewinnen sponsere ich euch gerne )
Hoffen wir das das Boot wieder zuverlässig läuft wie vor dem Abenteuer Solaris.
Solaris an sich mag gut sein, aber es ist wohl für die "freie Wildbahn" wohl doch nicht so geeignet
Ich danke dem Team jedenfalls für seinen grossartigen Einsatz!
(und sollte ich mal ein paar Millionen im Lotto gewinnen sponsere ich euch gerne )
Blutschlumpf
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.602
- Renomée
- 5
- Standort
- Erkelenz (zw. MG und AC)
- Prozessor
- Ryzen 3600
- Mainboard
- MSI B350 Carbon
- Kühlung
- TR Macho B
- Speicher
- 2x16GB DDR4
- Grafikprozessor
- Ti1660 + Accelero Xtreme 4
- Display
- HP Pavilion 32 QHD
- SSD
- 2TB Sandisk SSD Plus
- HDD
- -
- Optisches Laufwerk
- -
- Soundkarte
- onboard sound
- Gehäuse
- NZXT Phantom
- Netzteil
- BeQuiet Staight Power 10 400W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Feuerfuchs
@Nero: Kann ich nicht so recht glauben, dass das am Dateisystem liegt. Wenn schon ein Teil der Software entscheidet ob doppelt oder verteilt gelesen wird, dann der Treiber/Kernel, aber sicher nicht der Code für das Dateisystem. Da wäre jetzt ein bench von ext3 unter Solaris oder ZFS unter Linux interessant.
Transferrate ist ja schön und gut, aber mal ehrlich, was habt ihr auf dem System wo mehr als 2-3 MB am Stück gelesen werden ?
Läuft eure DB komplett im Ram oder wird da noch lesend auf die Platten zugegriffen ?
Transferrate ist ja schön und gut, aber mal ehrlich, was habt ihr auf dem System wo mehr als 2-3 MB am Stück gelesen werden ?
Läuft eure DB komplett im Ram oder wird da noch lesend auf die Platten zugegriffen ?
Sir Ulli
Grand Admiral Special
- Mitglied seit
- 06.02.2002
- Beiträge
- 14.440
- Renomée
- 202
- Standort
- Bad Oeynhausen
- Aktuelle Projekte
- Seti, Spinhenge
- Lieblingsprojekt
- Seti, Spinhenge, ich war vor Ort
- Meine Systeme
- Athlon64 X2 4.400, Imhell Quad 6.600
- Mein Laptop
- HP 530
- Prozessor
- Imhell Quad 6.600 at 3.240 8 x 405
- Mainboard
- Aus P5K Rev 2.1
- Kühlung
- Thermalright SI-128 SE Papst 120 at 1.200
- Speicher
- 2 x A-DATA 4 GB DDR2-800 Kit 4,4,4,12
- Grafikprozessor
- Asus 8.500 GT SILENT/HTP/256M
- Display
- Samsung SyncMaster 2232BW 22 Zoll TFT
- HDD
- Western Digital WD10EACS 1 TB
- Optisches Laufwerk
- Samsung SH-S203P Sata
- Soundkarte
- onboard
- Gehäuse
- CS601 mit 2extra Päpsten at 9 Volt
- Netzteil
- Fortron 350 Watt
- Betriebssystem
- Windows7 Home Premium
- Webbrowser
- Mozilla Firefox
ich hatte sowas schon geahnt,
dank auch an D'Espice und tomturbo und auch an Mogul
für ihre Super Arbeit hier
aber das Boot läuft zur Zeit Super, und auch der Speed ist Super.
wollen hoffen das das alles so bleibt.
mfg
Sir Ulli
dank auch an D'Espice und tomturbo und auch an Mogul
für ihre Super Arbeit hier
aber das Boot läuft zur Zeit Super, und auch der Speed ist Super.
wollen hoffen das das alles so bleibt.
mfg
Sir Ulli
Nightshift
Grand Admiral Special
- Mitglied seit
- 19.08.2002
- Beiträge
- 4.447
- Renomée
- 81
- Standort
- Tief im Weeeeeesss-teheheheeen ;-)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, Docking, POEM
- Lieblingsprojekt
- SIMAP
- Meine Systeme
- Ci7-3770K@3,8 GHz, C2Q 9550@3,4 GHz, AthlonII 620 X4 (+ 2x Ci3-2100, 2x C2D 8400, 9x A4-3420, E-450)
- BOINC-Statistiken
- Prozessor
- Ryzen 7 3700X @stock
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- 2x 16 GB Corsair Vengeance LPX (schwarz) PC4-25600U (DDR4-3200) CL16-18-18-36 @stock
- Grafikprozessor
- Powercolor RX 5700 Red Dragon @stock
- Display
- Eizo FlexScan EV2750
- SSD
- Corsair MP600 1TB M.2 NVMe | Kingston A2000 NVMe PCIe SSD 1TB | Samsung 850 EVO 500 GB
- Optisches Laufwerk
- LG BH16NS55| NEC AD-7203S
- Soundkarte
- onboard :-P der Hardwaregott habe meine Creative Audgiy 2ZS selig
- Gehäuse
- Nanoxia Deep Silence 5, schallgedämmt
- Netzteil
- be quiet! Straight Power E11 650W
- Tastatur
- Razer Ornata Chroma
- Maus
- Logitech Lift for Business
- Betriebssystem
- Win 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- rockstable & silent
- Schau Dir das System auf sysprofile.de an
Egal welche "Pro´s" etwas dazu sagen, so war es sicherlich die korrekte Entscheidung.
So ein privates Projekt ist eben hinsichtlich seiner zeitlichen und finanziellen Mittel begrenzt.
Ich weiss echt nicht wie ihr das geschafft habt immer wieder hin und her zu fahren.
Und da sieht man mal wieder die Tücken des Web2.0 (hier in Form des Blog), jeder der meint die Weißheit mit Löffeln gefressen zu haben posaunt sein Ding raus egal wie unpassend das ist. Man muss den Support eben auch bezahlen können.
Also am besten ignorieren was da geredet wird (gilt auch für mich, ich reg mich über die Sprüche da grad nur tierisch auf).
Und an eure Frauen/Freundinnen beste Grüße und vielen Dank, dass sie euch nicht komplett den Kopf abgerissen haben (denn leben tut ihr ja noch).
Schließlich wollen die ihre Freunde/Männer auch nochmal zu Gesicht bekommen.
"Ach guck mal da kommt dein Vater ... der ist vor 5 Jahren los gegangen um Solaris 10 zu installieren."
So ein privates Projekt ist eben hinsichtlich seiner zeitlichen und finanziellen Mittel begrenzt.
Ich weiss echt nicht wie ihr das geschafft habt immer wieder hin und her zu fahren.
Und da sieht man mal wieder die Tücken des Web2.0 (hier in Form des Blog), jeder der meint die Weißheit mit Löffeln gefressen zu haben posaunt sein Ding raus egal wie unpassend das ist. Man muss den Support eben auch bezahlen können.
Also am besten ignorieren was da geredet wird (gilt auch für mich, ich reg mich über die Sprüche da grad nur tierisch auf).
Und an eure Frauen/Freundinnen beste Grüße und vielen Dank, dass sie euch nicht komplett den Kopf abgerissen haben (denn leben tut ihr ja noch).
Schließlich wollen die ihre Freunde/Männer auch nochmal zu Gesicht bekommen.
"Ach guck mal da kommt dein Vater ... der ist vor 5 Jahren los gegangen um Solaris 10 zu installieren."
Zuletzt bearbeitet:
Dalai
Grand Admiral Special
- Mitglied seit
- 14.06.2004
- Beiträge
- 7.420
- Renomée
- 262
- Standort
- Meiningen, Thüringen
- Mein Laptop
- Thinkpad T43 mit 15" UXGA (1600x1200), 2x 1 GiB RAM, 100GB HD, Bluetooth, GBit LAN, ATi X300
- Prozessor
- AMD Ryzen 5 2600 (Pinnacle Ridge)
- Mainboard
- ASUS Prime X370-A
- Kühlung
- Noctua NH-U12S mit 1x NF-F12
- Speicher
- Crucial Ballistix Sport LT weiß (BLS2K8G4D32AESCK): 2x 8 GiB DDR4-3200 (CL16) @ 1,25V
- Grafikprozessor
- Zotac GeForce GTX 1060 6GB AMP Edition
- Display
- Dell U2410, 24 Zoll, IPS, 16:10
- SSD
- Samsung 850 Evo 250 GB
- HDD
- WD40EZRZ (WD Blue) 4000GB SATA3, WD20EZRX (WD Green) 2000GB SATA3
- Optisches Laufwerk
- Pio DVR-212 (DVD-RAM), ASUS E818A6T (DVD-ROM), Pio DVD-106S (Slot-in DVD-ROM)
- Soundkarte
- Creative SoundBlaster Audigy 2 ZS PCI
- Gehäuse
- Lian Li PC-8NB Midi-Tower
- Netzteil
- Enermax EMP400AGT MaxPro 400W
- Betriebssystem
- Windows 7 Professional x64 und immer mal wieder ein neues Linux :-)
- Webbrowser
- Mozilla Firefox mit diversen Erweiterungen
- Verschiedenes
- 2x 120mm Gehäuselüfter (Front und Rückwand), DVBSky T9580, Sharkoon Frontpanel B (2x USB 3.0)
Ich schreib ja selten einen Kommentar zu einer News, aber hier muss ich mal aktiv werden:
Ich kann nur ein dickes
DANKE
sagen!
Danke an euch und an eure Frauen, dass sie so viel Geduld mit euch hatten!
Und wie's aussieht, war es gut, dass ihr vor der (Zurück-)Umstellung auf Linux nix gesagt habt
MfG Dalai
PS: Die Sonne ist zwar jetz untergegangen, aber nun kann der Tux wieder rumhüpfen
Ich kann nur ein dickes
DANKE
sagen!
Danke an euch und an eure Frauen, dass sie so viel Geduld mit euch hatten!
Und wie's aussieht, war es gut, dass ihr vor der (Zurück-)Umstellung auf Linux nix gesagt habt
MfG Dalai
PS: Die Sonne ist zwar jetz untergegangen, aber nun kann der Tux wieder rumhüpfen
Zuletzt bearbeitet:
PuckPoltergeist
Grand Admiral Special
Die Messungen wurden sowohl unter Solaris, als auch unter Linux mit dem Befehl "hdparm -tT [DEVICE]" durchgeführt. Gemessen wurde dabei nur die Performance der beiden mirrored 15K SCSI Platten für die MySQL-DB. 90 MB/s ist dabei in etwa die Geschwindigkeit, die eine einzelne 15K-Platte an sequenzieller Lesegeschwindigkeit zustande bringt, 200 MB/s deuten auf zwei Platten hin. Wahrscheinlichste Erklärung: ext3 liest von beiden Platten parallel das Gleiche und checkt so die Integrität auch beim Lesen noch einmal. Damit ist die Geschwindigkeit nicht höher, als mit nur einer Platte. ZFS dagegen scheint sich beim Lesen auf seine integrierte Fehlerkorrektur zu verlassen und liest die Daten nicht einfach stumpf parallel, sondern wie ein Raid-0. Die Hardware (Laufwerke, Verkabelung, Controller) war in beiden Fällen identisch.
Also zum einen ist mir noch keine Platte untergekommen, welche 90 MB/s an sequentieller Leseleistung bringt. Gut 70 MB/s war da das höchste. Ok, das muss nicht aussagekräftig sein, da ich schon länger keine Platten mehr getestet habe. Kann durchaus sein, dass aktuelle Platten diese Leistung bringen. Obwohl ich das bezweifle.
Aber der Test mit hdparm geht vollkommen am Dateisystem vorbei. Der misst wirklich nur die rohe Leistung der Platte. Insofern kann ext3 oder ZFS hier garkeinen Einfluss haben. Insofern habe ich den Eindruck, dass hier ein Cache unter Solaris Einfluss genommen hat, der unter Linux nicht existent ist bzw. umgangen wird. Nach meiner Erfahrung (und da habe ich jetzt doch einige), ist der beste Test für ein Dateisystem, viele Dateien zu bewegen, je nach Anforderungsprofil. Ich habe da jetzt reichlich Tests mit den unter Linux zur Verfügung stehende FSs hinter mir. Und ebenso habe ich dazu entsprechend Feedback von den FS-Entwicklern bzw. -programmierern.
Dass das deutlich komplexere ZFS eine so großen Vorsprung gegenüber ext3 hat, kann ich mir absolut nicht vorstellen. Ein 100%iger Zuwachs ist einfach unrealistisch. Ich werde das hier auch gerne nochmal nachprüfen, aber ich glaube nicht, dass sich die Zahlen bestätigen.
PS: Ach ja, ich vergaß schon im erstem Posting meine Dank an D'Espice, tomturbo und den Rest der Crew. Ich weiß ja selber, welchen Aufwand so ein Projekt mit sich bringt. (Gruß an Martin, welcher mich damals aus der Jugendstunde (Kirche) meiner Freundin damals riss. )
Zuletzt bearbeitet:
Schade, dass es nicht hatte sollen sein, aber ist wohl die bessere Lösung. Lieber ein paar Knoten weniger als bei Ak voraus möglich, dafür nicht alle 2 Tage nen neuen Kessel.
In diesem Sinne noch mal ein riesen Danke ans Team für die ganze Arbeit und v.a. die Zeit. Schenkt euren Frauen mal nen großen Blumenstrauß oder sowas für die ganze Geduld.
In diesem Sinne noch mal ein riesen Danke ans Team für die ganze Arbeit und v.a. die Zeit. Schenkt euren Frauen mal nen großen Blumenstrauß oder sowas für die ganze Geduld.
Goldie
Vice Admiral Special
- Mitglied seit
- 04.09.2002
- Beiträge
- 678
- Renomée
- 3
- Standort
- Berlin
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding
- Lieblingsprojekt
- Folding
- Meine Systeme
- Xeon E5649 (2x), Core i5-4460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- 2x Intel Xeon X5680
- Mainboard
- Asus Z8NR-D12
- Speicher
- 12x 8GB Kingston ECC
- Grafikprozessor
- Sapphire RX570 ITX
- Display
- 27 Zoll, Philips 272B8QJEB/00, 2560x1440
- SSD
- 1x Intel SSD 330
- HDD
- 1x Apple 2,5" 1TB
- Gehäuse
- Chieftec Mesh LCX-01SL
- Netzteil
- be quiet Pure Power 730W
- Betriebssystem
- Windows 10 Professional 64Bit
- Verschiedenes
- Board + RAM 0€, Rx 570 120€ und CPUs für 70€. Rest hatte ich noch.
Kurzgesagt: DANKE!
Bis denne!
Bis denne!
Onkel Homie
Gesperrt
- Mitglied seit
- 26.03.2003
- Beiträge
- 15.842
- Renomée
- 390
- Standort
- Dortmund
- Aktuelle Projekte
- Spinhenge, SIMAP, QMC, POEM
- Lieblingsprojekt
- Spinhenge
- Meine Systeme
- C2D E8400 @3,8GHz
- BOINC-Statistiken
- Mein Laptop
- Lenovo TP Edge 13 NV122GE, Thinkpad R60 9461-DXG T5600 2GB
- Prozessor
- i7-3770k
- Mainboard
- Asrock Z77 Extreme 4
- Kühlung
- Thermalright Macho 120
- Speicher
- Kingston 1600 CL9 4x4096
- Grafikprozessor
- GTX 770 4096
- Display
- Dell U2713HM, Samsung 226BW
- HDD
- 1 x Samsung 840 Pro SSD, 2 x WD10EZEX 1 TB Raid 1
- Soundkarte
- Realtek onboard
- Gehäuse
- Nanoxia Deep Silence 2
- Netzteil
- beQuiet Straight Power E9 580W
- Betriebssystem
- Windows 8.1 Pro 64, Windows 7 Pro 64, Xubuntu 14.04
- Webbrowser
- Chrome
- Verschiedenes
- NAS: Synology DS214play; Kamera: Nikon D7100, Nexus 7 2013
Irgendwie hatte ich auch schon damit gerechnet muss ich sagen.
Zwar lief es, aber dann doch mehr schlecht als Recht. Ob wir als die normalen User wirklich viel von Solaris gemerkt hätten sie mal dahingestellt, aber es ist schon schade das dieses Experiment dann doch nicht geglückt ist.
Auf jeden Fall mal ein riesen DANKESCHÖN an all die schier unermüdlichen Helfer!!!
Zwar lief es, aber dann doch mehr schlecht als Recht. Ob wir als die normalen User wirklich viel von Solaris gemerkt hätten sie mal dahingestellt, aber es ist schon schade das dieses Experiment dann doch nicht geglückt ist.
Auf jeden Fall mal ein riesen DANKESCHÖN an all die schier unermüdlichen Helfer!!!
mj
Technische Administration, Dinosaurier, ,
- Mitglied seit
- 17.10.2000
- Beiträge
- 19.529
- Renomée
- 272
- Standort
- Austin, TX
- Mein Laptop
- 2,4kg schwer
- Prozessor
- eckig... glaub ich
- Mainboard
- quadratisch, praktisch, gut
- Kühlung
- kühler?
- Speicher
- ja
- Grafikprozessor
- auch
- Display
- viel bunt
- HDD
- ist drin
- Optisches Laufwerk
- ist auch drin (irgendwo)
- Soundkarte
- tut manchmal tuuut
- Gehäuse
- mit aufkleber!
- Netzteil
- so mit kabel und so... voll toll
- Betriebssystem
- das eine da das wo dingenskirchen halt, nech?
- Webbrowser
- so ein teil da... so grün und so
- Verschiedenes
- nunu!
Ein kleiner Kommentar zur Leistung des Dateisystems:
Der Test bestand mitnichten darin, mit hdparm die Leistung zu messen, da hat sich Nero24 leider geirrt. Den hdparm Test haben wir natürlich auch durchgeführt und da lag Solaris immer noch vor Linux, allerdings nicht mehr so eindeutig. Der Grund ist vermutlich der bessere Treiber im Kernel.
Der obige Test wurde auf folgende Art und Weise durchgeführt:
Dabei wird weder der Plattencache noch die Rohleistung gemessen, sondern die reine Vergleichsleistung zweier Dateisysteme. Der Test hat ergeben: Schreibleistung auf das 2x15k RAID1: ~70 MB/s. Leiseleistung vom 2x15k RAID1: ~95 MB/s
Unter Solaris/ZFS waren die Werte ganz anders: ~65 MB/s schreibend, fast konstant über 200 MB/s lesend (mit Ausschlägen nach unten und oben, Spitze waren 227 MB/s)
Und noch ein kleines Schmankerl: Unter Solaris war die load zu den Stoßzeiten (also zw. 18-24 Uhr) nur extrem selten mal über zwei, im Schnitt bei 1,5. Unter Gentoo geht die load schon nachmittags auf zwei und Abends dann drüber - derzeit 2.70, 2.60, 2.91
Der Test bestand mitnichten darin, mit hdparm die Leistung zu messen, da hat sich Nero24 leider geirrt. Den hdparm Test haben wir natürlich auch durchgeführt und da lag Solaris immer noch vor Linux, allerdings nicht mehr so eindeutig. Der Grund ist vermutlich der bessere Treiber im Kernel.
Der obige Test wurde auf folgende Art und Weise durchgeführt:
- Mittels dd if=/dev/hda1 of=/pfad/zum/slice/datei eine 10GB große Datei anlegen (HDA1 symbolisch für unser Backup-RAID1) - Messung der Schreibleistung mittels iostat
- Neu starten um den Cache zu umgehen
- Diese Datei nach /dev/null kopieren und gleichzeitig mit iostat den Plattendurchsatz messen
Dabei wird weder der Plattencache noch die Rohleistung gemessen, sondern die reine Vergleichsleistung zweier Dateisysteme. Der Test hat ergeben: Schreibleistung auf das 2x15k RAID1: ~70 MB/s. Leiseleistung vom 2x15k RAID1: ~95 MB/s
Unter Solaris/ZFS waren die Werte ganz anders: ~65 MB/s schreibend, fast konstant über 200 MB/s lesend (mit Ausschlägen nach unten und oben, Spitze waren 227 MB/s)
Und noch ein kleines Schmankerl: Unter Solaris war die load zu den Stoßzeiten (also zw. 18-24 Uhr) nur extrem selten mal über zwei, im Schnitt bei 1,5. Unter Gentoo geht die load schon nachmittags auf zwei und Abends dann drüber - derzeit 2.70, 2.60, 2.91
BarBart
Fleet Captain Special
- Mitglied seit
- 17.05.2004
- Beiträge
- 270
- Renomée
- 3
- Standort
- im Schwabenland
- Mein Laptop
- Acer TravelMate 8371
- Prozessor
- AMD Phenom II 920
- Mainboard
- ASRock AOD790GX/128M
- Kühlung
- Arctic Cooling Freezer Xtreme
- Speicher
- 2 x 2 GB DDR II@ 800Mhz Corsair
- Grafikprozessor
- Asus R9 290
- Display
- Samsung T240
- SSD
- Crucial MX500
- HDD
- Samsung SpinPoint 750GB
- Optisches Laufwerk
- LG GGC - H20L
- Soundkarte
- Realtek ALC 890
- Gehäuse
- ThermalTake "Soprano"
- Netzteil
- BeQuiet Straight Power - 450W
- Betriebssystem
- Win7 - Home
- Webbrowser
- FF
Nun ja schade eigentlich. Ich muß zugeben keine wirkliche Ahnung in dem Bereich zu haben, aber Solaris klingt immer gleich nach einem großen Batzen Professionalität. Aber sei's drum!
Trotzdem einen großen Dank an unsere Einsatzgruppe die dafür sorgt, dass wir unsere Freizeit wieder mit p3dnow verbringen können!
MfG der BarBart
Trotzdem einen großen Dank an unsere Einsatzgruppe die dafür sorgt, dass wir unsere Freizeit wieder mit p3dnow verbringen können!
MfG der BarBart
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.607
- Renomée
- 422
- Standort
- Bayern, am Rande des Wahnsinns
- Aktuelle Projekte
- Dieses und jenes
- BOINC-Statistiken
- Mein Laptop
- HP EliteBook 840 G2, Elitebook 850 G3
- Prozessor
- Ryzen7 5800X3D
- Mainboard
- Asus TUF B550 Plus
- Kühlung
- BeQuiet DarkRock4
- Speicher
- 4x16GB DDR4-3200 Crucial
- Grafikprozessor
- XFX RX6700XT 12GB
- Display
- 2x HP X27i
- SSD
- NVMe: 970EVO 1TB, SATA: WD Blue 1TB, 870QVO 4TB, Acer RE100 4TB, 870QVO 8TB
- Optisches Laufwerk
- LG BluRay-Brenner
- Soundkarte
- Realtek ALC1200
- Gehäuse
- Fractal Define R5
- Netzteil
- Seasonic Focus 650W
- Tastatur
- Keychron K4
- Maus
- Logitech MX518
- Betriebssystem
- Win10 Pro/64, Linux 64bit (wechselnd)
- Webbrowser
- Primär: Firefox, sekundär: Wechselnd
- Internetanbindung
- ▼100 MBit ▲32 MBit
trotzdem einen großen Dank an unsere Einsatzgruppe die dafür sorgt, dass wir unsere Freizeit wieder mit p3dnowverbringenverplempern (müsste das wohl heissen , Die Redaktion ) können!
PuckPoltergeist
Grand Admiral Special
Nach meiner Erfahrung ist das leider immer noch nicht aussagekräftigt. Ich habe sowohl mit dd als auch mit cp getestet (unter Linux), und die Werte wichen teilweise eklatant voneinander ab. Bei nächster Gelegenheit werde ich die Tests auch auf Solaris ausweiten. Aber ich kann mir nicht vorstellen, dass ZFS dermaßen gut gegenüber ext abschneidet. Einerseits aus Erfahrung mit den Test gegenüber JFS und XFS, welche beide für sich besser Performance in Anspruch nehmen, andererseits überhaupt im Design der einzelnen FS. ZFS ist ebenso wie XFS oder JFS deutlich komplexer als ext. Das schlägt sich zwangsläufig in der Performance nieder.Ein kleiner Kommentar zur Leistung des Dateisystems:
Der Test bestand mitnichten darin, mit hdparm die Leistung zu messen, da hat sich Nero24 leider geirrt. Den hdparm Test haben wir natürlich auch durchgeführt und da lag Solaris immer noch vor Linux, allerdings nicht mehr so eindeutig. Der Grund ist vermutlich der bessere Treiber im Kernel.
Der obige Test wurde auf folgende Art und Weise durchgeführt:
- Mittels dd if=/dev/hda1 of=/pfad/zum/slice/datei eine 10GB große Datei anlegen (HDA1 symbolisch für unser Backup-RAID1) - Messung der Schreibleistung mittels iostat
- Neu starten um den Cache zu umgehen
- Diese Datei nach /dev/null kopieren und gleichzeitig mit iostat den Plattendurchsatz messen
Dabei wird weder der Plattencache noch die Rohleistung gemessen, sondern die reine Vergleichsleistung zweier Dateisysteme. Der Test hat ergeben: Schreibleistung auf das 2x15k RAID1: ~70 MB/s. Leiseleistung vom 2x15k RAID1: ~95 MB/s
Unter Solaris/ZFS waren die Werte ganz anders: ~65 MB/s schreibend, fast konstant über 200 MB/s lesend (mit Ausschlägen nach unten und oben, Spitze waren 227 MB/s)
Und schlussendlich erscheinen mir 200 MB/s für zwei Platten einfach nicht realistisch.
Das weckt natürlich Interesse nach mehr. Wobei für mich immer noch die Frage ist, wie die load auf dem jeweiligen System ermittelt wird.Und noch ein kleines Schmankerl: Unter Solaris war die load zu den Stoßzeiten (also zw. 18-24 Uhr) nur extrem selten mal über zwei, im Schnitt bei 1,5. Unter Gentoo geht die load schon nachmittags auf zwei und Abends dann drüber - derzeit 2.70, 2.60, 2.91
Ah, ok, das wusste ich nicht, was Ihr noch so alles getestet habt Aber wenn die 200 MB/s aus einem Praxistest stammen - umso besserDer Test bestand mitnichten darin, mit hdparm die Leistung zu messen, da hat sich Nero24 leider geirrt. Den hdparm Test haben wir natürlich auch durchgeführt und da lag Solaris immer noch vor Linux, allerdings nicht mehr so eindeutig. Der Grund ist vermutlich der bessere Treiber im Kernel.
Der obige Test wurde auf folgende Art und Weise durchgeführt:
...
Schon eine aktuelle 7200/min SATA2-Platte mit Perpendicular Recording liegt hier über 70 MB/s. Die bei uns eingesetzten SCSI-Platten drehen aber mehr als doppelt so schnell Insofern liegen die 90 MB/s durchaus im realistischen Bereich.Also zum einen ist mir noch keine Platte untergekommen, welche 90 MB/s an sequentieller Leseleistung bringt. Gut 70 MB/s war da das höchste. Ok, das muss nicht aussagekräftig sein, da ich schon länger keine Platten mehr getestet habe.
Im Endeffekt ist es mir auch egal, ob der Zuwachs vom Kernel, vom Filesystem oder von einem ausgeklügelten Prefetch-Algorithmus von Solaris kommt. Bei einem synthetischen Test wie hdparm kann man's vielleicht noch auf einen Fehler schieben. Wenn aber riesige Dateien - wie ich eben erfahren habe - nach einem Neustart doppelt so schnell von HDD nach dev/null kopiert werden, dann will das schon etwas heißen.
Aber was soll's. ZFS ist Geschichte auf dem Boot 2.1 und ein Alpha-Projekt wie ZFS unter FUSE/Linux werden wir auf einem Produktiv-Server ganz sicher nicht einsetzen Derzeit würde ich FAT16 einsetzen, wenn das die einzige Möglichkeit wäre bis Ende nächsten Jahres nicht mehr nach Frankfurt jetten zu müssen
PuckPoltergeist
Grand Admiral Special
Also mich macht die pure Rohleistung von 100 MB/s schon irgendwo stutzig. Natürlich hat die Plattentechnologie in den letzten Jahren nicht geschlafen. Aber ihr habt hier SCSI-Platten vermessen. Und die sind technologisch generell sehr konservativ aufgestellt. Sowas wie perpendicular recording sind da noch böhmische Dörfer. Das soll heißen, was die Dauertransferraten angeht, hängen SCSI-Platten den Consumer-Produkten eher nach, als sie vorraus sind. Liegt ganz einfach an der geringeren Datendichte auf den Plattern. 200 MB/s bringen nichtmal unsere Storage-Arrays. Und so eine EVA ist schon verdammt dick aufgestellt, auch wenn sie von mehreren Nutzern gleichzeitig beansprucht wird.Schon eine aktuelle 7200/min SATA2-Platte mit Perpendicular Recording liegt hier über 70 MB/s. Die bei uns eingesetzten SCSI-Platten drehen aber mehr als doppelt so schnell Insofern liegen die 90 MB/s durchaus im realistischen Bereich.
Eben das bezweifle ich. Mir klingt das sehr nach Caches. Und die halten nur so lange, wie RAM vorhanden ist. Danach müssen die auch wieder an die Platten, und da bremst immer das Dateisystem.Im Endeffekt ist es mir auch egal, ob der Zuwachs vom Kernel, vom Filesystem oder von einem ausgeklügelten Prefetch-Algorithmus von Solaris kommt. Bei einem synthetischen Test wie hdparm kann man's vielleicht noch auf einen Fehler schieben. Wenn aber riesige Dateien - wie ich eben erfahren habe - nach einem Neustart doppelt so schnell von HDD nach dev/null kopiert werden, dann will das schon etwas heißen.
Naja, wieso hier unbedingt auf ext gesetzt werden musste, erschließt sich mir nicht so ganz. Ok, es mag bei kleineren Datenmenge performanter als die Alternativen (JFS und vor allem XFS) sein, aber das bedeutet beim nächsten Plattenupgrade auf jeden Fall auch wieder eine längere Auszeit. XFS hätte ebenso wie ZFS eine Erweiterung im laufenden Betrieb ermöglicht.Aber was soll's. ZFS ist Geschichte auf dem Boot 2.1 und ein Alpha-Projekt wie ZFS unter FUSE/Linux werden wir auf einem Produktiv-Server ganz sicher nicht einsetzen Derzeit würde ich FAT16 einsetzen, wenn das die einzige Möglichkeit wäre bis Ende nächsten Jahres nicht mehr nach Frankfurt jetten zu müssen
Blutschlumpf
Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 1.602
- Renomée
- 5
- Standort
- Erkelenz (zw. MG und AC)
- Prozessor
- Ryzen 3600
- Mainboard
- MSI B350 Carbon
- Kühlung
- TR Macho B
- Speicher
- 2x16GB DDR4
- Grafikprozessor
- Ti1660 + Accelero Xtreme 4
- Display
- HP Pavilion 32 QHD
- SSD
- 2TB Sandisk SSD Plus
- HDD
- -
- Optisches Laufwerk
- -
- Soundkarte
- onboard sound
- Gehäuse
- NZXT Phantom
- Netzteil
- BeQuiet Staight Power 10 400W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Feuerfuchs
Die 100MB/sec. sind schon vor ner Weile gefallen, schau mal hier:
http://www.storagereview.com/articles/200609/ST3300655LW_2.html
http://www.storagereview.com/articles/200609/ST3300655LW_2.html
- Mitglied seit
- 16.11.2001
- Beiträge
- 21.665
- Renomée
- 1.247
- Standort
- München
- Aktuelle Projekte
- World Community Grid
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- AMD Ryzen 9 5950X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS TUF Gaming X570-Pro [WI-FI]
- Kühlung
- be quiet! Shadow Rock 3
- Speicher
- 4x 16GB DDR4-3200 Corsair Vengeance LPX
- Grafikprozessor
- ASRock Radeon RX 550 Phantom Gaming Aktiv 2GB
- Display
- LG 27UL850-W, 27"
- SSD
- Samsung 980 PRO 2TB, Samsung 840 EVO 500GB
- HDD
- Seagate Barracuda 7200.14 3TB SATA3
- Optisches Laufwerk
- Samsung SH-S183A SATA schwarz (im externen Gehäuse)
- Gehäuse
- be quiet! Silent Base 802 schwarz
- Netzteil
- be quiet! Straight Power 11 Platinum 550W
- Tastatur
- Logitech G613 Lightspeed
- Maus
- Logitech M510
- Betriebssystem
- Ubuntu Linux 22.04
- Webbrowser
- Vivaldi
- Internetanbindung
-
▼100 MBit
▲40 MBit
Die Begründung war, dass das eine der beiden (XFS?) mit der Zeit sehr langsam wird und bei dem anderen (JFS?) einfach die Langzeiterfahrung fehlt.Naja, wieso hier unbedingt auf ext gesetzt werden musste, erschließt sich mir nicht so ganz. Ok, es mag bei kleineren Datenmenge performanter als die Alternativen (JFS und vor allem XFS) sein, aber das bedeutet beim nächsten Plattenupgrade auf jeden Fall auch wieder eine längere Auszeit. XFS hätte ebenso wie ZFS eine Erweiterung im laufenden Betrieb ermöglicht.
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.607
- Renomée
- 422
- Standort
- Bayern, am Rande des Wahnsinns
- Aktuelle Projekte
- Dieses und jenes
- BOINC-Statistiken
- Mein Laptop
- HP EliteBook 840 G2, Elitebook 850 G3
- Prozessor
- Ryzen7 5800X3D
- Mainboard
- Asus TUF B550 Plus
- Kühlung
- BeQuiet DarkRock4
- Speicher
- 4x16GB DDR4-3200 Crucial
- Grafikprozessor
- XFX RX6700XT 12GB
- Display
- 2x HP X27i
- SSD
- NVMe: 970EVO 1TB, SATA: WD Blue 1TB, 870QVO 4TB, Acer RE100 4TB, 870QVO 8TB
- Optisches Laufwerk
- LG BluRay-Brenner
- Soundkarte
- Realtek ALC1200
- Gehäuse
- Fractal Define R5
- Netzteil
- Seasonic Focus 650W
- Tastatur
- Keychron K4
- Maus
- Logitech MX518
- Betriebssystem
- Win10 Pro/64, Linux 64bit (wechselnd)
- Webbrowser
- Primär: Firefox, sekundär: Wechselnd
- Internetanbindung
- ▼100 MBit ▲32 MBit
XFS soll in der tat stärker fragmentieren als das klassische ext3 so weit mir bekannt.
JFS... hm, darüber weiss ich jetzt auch nicht bescheid.
(ReiserFS ist sowieso für Tonne, ab einem gewissen Punkt fragmentiert das wie sau...)
ext3 war schon die richtige Entscheidung, denke ich.
JFS... hm, darüber weiss ich jetzt auch nicht bescheid.
(ReiserFS ist sowieso für Tonne, ab einem gewissen Punkt fragmentiert das wie sau...)
ext3 war schon die richtige Entscheidung, denke ich.
PuckPoltergeist
Grand Admiral Special
XFS soll in der tat stärker fragmentieren als das klassische ext3 so weit mir bekannt.
Nein, tut es nicht. In der Tat fragmentiert XFS von allen unter Linux verfügbaren Dateisystemen am wenigsten. Dazu skaliert es als einzigstes FS sowohl mit der Größe des Devices als auch mit der Anzahl der Prozessoren.
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.607
- Renomée
- 422
- Standort
- Bayern, am Rande des Wahnsinns
- Aktuelle Projekte
- Dieses und jenes
- BOINC-Statistiken
- Mein Laptop
- HP EliteBook 840 G2, Elitebook 850 G3
- Prozessor
- Ryzen7 5800X3D
- Mainboard
- Asus TUF B550 Plus
- Kühlung
- BeQuiet DarkRock4
- Speicher
- 4x16GB DDR4-3200 Crucial
- Grafikprozessor
- XFX RX6700XT 12GB
- Display
- 2x HP X27i
- SSD
- NVMe: 970EVO 1TB, SATA: WD Blue 1TB, 870QVO 4TB, Acer RE100 4TB, 870QVO 8TB
- Optisches Laufwerk
- LG BluRay-Brenner
- Soundkarte
- Realtek ALC1200
- Gehäuse
- Fractal Define R5
- Netzteil
- Seasonic Focus 650W
- Tastatur
- Keychron K4
- Maus
- Logitech MX518
- Betriebssystem
- Win10 Pro/64, Linux 64bit (wechselnd)
- Webbrowser
- Primär: Firefox, sekundär: Wechselnd
- Internetanbindung
- ▼100 MBit ▲32 MBit
Dann hat mir entweder jemand unsinn erzählt, oder du weisst es auch nicht sicher.
Ich selber nutze nach wie vvor ext3.
Ich selber nutze nach wie vvor ext3.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 560
- Antworten
- 0
- Aufrufe
- 176
- Antworten
- 0
- Aufrufe
- 231
- Antworten
- 6
- Aufrufe
- 1K