Backup mit Tar - Fragen

Betagnom

Commodore Special
Mitglied seit
08.01.2006
Beiträge
487
Renomée
13
Standort
Vienna
Servus Leute,

Ich habe soeben ein Backup von meinem Server mit Tar durchgeführt - Nach dem Schema:
tar cvpzf backup.tgz --exclude=/proc --exclude=/lost+found --exclude=/backup.tgz --exclude=/mnt --exclude=/sys /
Jetzt kommt die Frage wo ich nicht ganz durchsteige :P
Wie verhaltet sich bzw. wie verhalte ich mich bei einem Restore. Wie ich das Backup zurück spiele istt mir noch klar, aber in welchen Zustand muss der Server bei folgendem Szenario sein:

Ich setze den Server komplett neu auf - In meinem Fall Ubuntu 8.10 LTS.
Da ich einiges mehr als LAMP am laufen habe, was davon muss ich wieder installieren ? Muss ich überhaupt etwas installieren, oder reicht es den Tarball zurück zu spielen ?

Ich raff Tar nicht *kopfkratz
 
Du müsstest erstmal mit einem anderen OS starten und das zurückspielen weil man Dateien aus einem laufenden OS nicht einfach so überschreiben kann. Und wenn du aus dem laufenden OS das Backup gestartet hast, werden da auch nicht alle Dateien drin sein.

Ich hoffe das Backup liegt nicht auf der gleichen Kiste ;)
Für sowas hätte ich eher Partimage benutzt.
 
Du müsstest erstmal mit einem anderen OS starten und das zurückspielen weil man Dateien aus einem laufenden OS nicht einfach so überschreiben kann.
Kann man, die Seiteneffekte sind nur nicht vorherzusehen. ;D

Und wenn du aus dem laufenden OS das Backup gestartet hast, werden da auch nicht alle Dateien drin sein.
Nicht alle Dateien drin sein, ist etwas unglücklich ausgedrückt. Das Risiko besteht, dass das Backup nicht konsistent ist, wenn die Dienste während des Backups weiter laufen. Das lässt sich aber nach dem Replay eigentlich wieder beheben.

Ich hoffe das Backup liegt nicht auf der gleichen Kiste ;)
Für sowas hätte ich eher Partimage benutzt.
Ich nutze rdiff-backup. Aber tar ist diesbezüglich auch nutzbar, sofern man mit fullback-only leben kann.
 
Für backup gibts dd! ;) SCNR
 
Das Prob ist, dass ich nicht mal eben ne Live CD einlegen kann, da es ein gemieteter Server ist. (1000km entfernt)

Mir bleibt also nur der Recovery Modus bzw die Serielle Konsole.
Das Backup spiele ich immer auf einen extra Backup-Server - Also liegt nicht auf der selben Kiste ;D

Ich würde gerne am Server etwas probieren, aber wenn das in die Hose geht hätte ich gerne den Notfall Button bei der Hand -Die Frage wäre, welche Methode ist der beste Notfall Knopf ?
Wenn ich das richtig verstehe, müßte ich den Server herunter fahren und im Recovery Modus booten, die einzelnen Partitonen mit tar/dd/ weg sichern ?
Ob ich partimage im Recovery Modus zu laufen bekomme ? hmm
 
Zuletzt bearbeitet:
Du packst haufenweise unnützes Zeug mit. Desweiteren ist es komfortabler alle Verzeichnise die excludet werden sollen in ne Datei zuschreiben.

Wenn du nur den FTP-Sichern willst langt /var/www oder wo immer du dein htdocs-Ordner hingelegt hast.

Wenn du die Konfigs noch angepasst hast musst du noch /etc/apache2 und /etc/php5 sichern.

Datenbanken kannste auch solange es myisam-Tabellen sind per "cp" sichern. Man sollte aber sicherstellen, das keine größeren Zugriffe die die Daten verändern stattfinden. Deshalb vorher die Seite "offline" schalten. Wer innoDB verwendet sollte immer ein Dump machen.

Man sollte nur das sichern was nicht nochmals beschafft werden kann. Darunter fallen: Konfigurationen der Programme, selbst geschriebene Scripte, FTP, Mysql, Postfächer. Die Programme selber brauch man nicht unbedingt da diese per apt-get schnell installiert werden können, außer man hat diese so verändert oder diese sind nicht per apt-get installierbar.

/etc/passwd /etc/hosts /etc/group wird ich noch sichern, spart das chownen und neu anlegen der User ;)

Leider darf ich an der Stelle keine weiteren Infos geben (Berufes wegen)...
 
Auf einem Filesystem zu bleiben sollte sich auch mit:
Code:
tar --one-file-system
machen lassen.

lg
__tom
 
Für Backups ist dd absolut ungeeignet.

Naja absolut ungeeignet ist übertrieben. Es ist nur etwas puristisch.

Ich hab das auch schon mal damit gemacht.


Schade eigentlich, dass btrfs noch nicht so weit ist, damit könnte man einfach einen snapshot erstellen und selbst bei laufendem System ein konsistentes abbild ziehen.
 
Naja absolut ungeeignet ist übertrieben. Es ist nur etwas puristisch.

Ich hab das auch schon mal damit gemacht.
Du schießt mit Kanonen auf Spatzen.

Schade eigentlich, dass btrfs noch nicht so weit ist, damit könnte man einfach einen snapshot erstellen und selbst bei laufendem System ein konsistentes abbild ziehen.
Nu ja, was heißt, nicht so weit sein? Bei mir tut genau dieses Szenario schon ziemlich gut. ;D
 
:) Danke für die zahlreichen Optionen.

Da ich keinen Quark produzieren wollte, habe ich nur die wichtigsten Ordner mit tar bzw. bzip2 via SSH auf einen anderen Server geschoben. Von den MySQLs habe ich jeweils einen dump erstellt.

Und es kam wie es kommen musste, meine geplante Aktion brachte ausser ein paar vermurksten Config Files keine gröberen Fehler.

Server läuft seit 3 Stunden ohne einen Pieps zu machen - so mag ich das :)
Btw. ist das auch gleich meine neue Backup Strategie -> Ich habe das Szenario mittels Cron Job angelegt.
 
Naja absolut ungeeignet ist übertrieben. Es ist nur etwas puristisch.

Ich hab das auch schon mal damit gemacht.
Ich habe nicht gesagt, dass es nicht möglich ist.

Aber was habe ich davon, ein 1:1 image des Dateisystems zu erstellen, welches ich nur mit relativ viel Aufwand updaten kann?

Ne, da gibt es wirklich sinnvollere Methoden.
dd ist ein klasse Tool, wenn es darum geht von einem defekten Datenträger (o.ä.) ein Abbild zu erstellen um daran rumwerkeln zu können, für fast alles andere sollte man lieber andere Tools verwenden.

Es ist schließlich nicht das Dateisystem, an dem man typischerweise interessiert ist (dieses kann man innerhalb weniger Minuten auch neu erstellen), sondern es sind die Daten.
 
Aber was habe ich davon, ein 1:1 image des Dateisystems zu erstellen, welches ich nur mit relativ viel Aufwand updaten kann?
Ich weiß nicht wie viel Aufwand es ist, ein Tool zu benutzen welches binär diffs erstellen kann, egal.

Für mich, jedenfalls, sind Vollbackups mit dd eine gute Sache, wenn ich idiotensichere 1:1 Kopien haben will. Und das von sehr unterschiedlichen Systemen.

Klar hat dd viele Nachteile, aber es funktioniert eben auch überall wo man offline drankommt.
 
Zuletzt bearbeitet:
Nu ja, was heißt, nicht so weit sein? Bei mir tut genau dieses Szenario schon ziemlich gut. ;D
das heißt, dass man damit auch auf nem server arbeiten kann ohne angst haben zu müssen, dass irgendwann plötzlich alles weg ist.

ich hab ja auch ein btrfs hier am laufen.
 
Ich weiß nicht wie viel Aufwand es ist, ein Tool zu benutzen welches binär diffs erstellen kann, egal.
Mit sowas kommst du in Teufels Küche. dd-images haben wenigstens noch den Vorteil, dass man sie mounten kann (also z.B. auch zum updaten), aber mit diffs brauchst du dann ja erstmal nochmal mind. genau den gleichen Speicherplatz, um ein mountbares image des Zustands zu erzeugen, welches du dann mounten kannst.
Für mich, jedenfalls, sind Vollbackups mit dd eine gute Sache, wenn ich idiotensichere 1:1 Kopien haben will. Und das von sehr unterschiedlichen Systemen.
Ist mir ehrlich gesagt nicht klar, was daran idiotensicherer sein soll als ein Backup mit rsync (o.ä.). Nur weil das Dateisystem gleich dabei ist?
Oder hast du vor, die PAT gleich mit zu klonen?

Genau aus solchen Gründen fangen dann die meisten an, ihre Partitionen zu vergrößern, weil man mit dd schließlich nur das 1:1 Image auf die neue Festplatte bekommt und stürzen sich dabei oft in noch größeres Chaos, weil das Resizing nicht 100%ig funktioniert.
 
das heißt, dass man damit auch auf nem server arbeiten kann ohne angst haben zu müssen, dass irgendwann plötzlich alles weg ist.

ich hab ja auch ein btrfs hier am laufen.

Für den produktiven Einsatz, vor allem Server, ist es mir bei weitem noch nicht robust genug. Way to much BUG_ONs in the code. Außerdem gibts nach wie vor keine sinnvollen Möglichkeiten, im Ernstfall Daten von einem kaputten Dateisystem zu retten. Da gehen bestimmt noch sechs Monate ins Land, bis wir soweit sind.
 
Für den produktiven Einsatz, vor allem Server, ist es mir bei weitem noch nicht robust genug. Way to much BUG_ONs in the code. Außerdem gibts nach wie vor keine sinnvollen Möglichkeiten, im Ernstfall Daten von einem kaputten Dateisystem zu retten. Da gehen bestimmt noch sechs Monate ins Land, bis wir soweit sind.

Ja. Und da wir von einem dateisystem reden , noch dazu von einem was wesentlich mehr features haben soll als ein durchschnittliches dateisystem, glaube ich eher, dass noch 1 bis 2 jahre vergehen bevor btrfs soweit ist.
 
[STRIKE]
Servus,

Also ich habe doch einen kleinen Fehler im Log gefunden, welcher mir aber nicht die Quelle nennt.

Der Apache bzw. das Log spuckt folgenden Fehler aus:

Code:
<b>Warning</b>: Directive 'magic_quotes_gpc' is deprecated in PHP 5.3 and greater in <b>Unknown</b> on line <b>0</b><br />

Bedingt durch den wechsel von PHP 5.1.x auf 5.3.2 wird der Fehler verursacht. Ich habe in der php.ini magic_quotes_gpc auf off gestellt und den Apache neu gestartet.

Jemand eine Idee woher der Error kommen könnte ?
[/STRIKE]

Man sollte halt auch jede php.ini editieren :P
In dem Fall war magic noch auf on -> cgi/php.ini
 
Zuletzt bearbeitet:
Zurück
Oben Unten