[linux-l] Backup mit automatisierter Wiederherstellung

Olivier Brisson daemoon at gmx.de
Do Mai 1 01:06:20 CEST 2003


Hallo Oliver,

Deine Idee ist gut, aber auf längerer Zeit nicht ausführbar: du muß für
jeden Update des Systems ein neuer Set von Backup-CDs vorbereiten und wie
wird sich dein System verhalten, wenn du sogar nur 10-30Go an Dateien
hast? 30Go Daten sind wenig und passen auch locker auf deinem System.
Bestimmt haben Leute auf dieser Liste mehr als 250 Go an Daten...

Für die Vorbereitung meiner Backups habe ich mich entschlossen, System
Daten und User Files zu trennen.

Bearbeitung der System Daten:
^^^^^^^^^^^^^^^^^^^^^^^^^^^^
Wenn du sehr gerne alles kompilierst kann ich dir OpenBSD oder NetBSD
vorschalgen. Ja ich weiß, es handelt sich hier um eine Linux-Liste, aber
Systeme auf BSD Basis sind wunderbar für Server. <Please no TROLL>. Wenn
es unbedingt Linux sein muß, gibt es auch Gentoo. Du kannst natürlich mit
deinem System rumspielen (tweaking, veränderung der Makefiles...): sollte
etwas bei der Kompilation nicht funktionieren, kannst du dann immer die
ordentlichen Quellcodes mit CVS herunterladen.

Solltest du danach mehrere Rechner haben: deine Tests auf einem Rechner
(TestRechner) ausführen und wenn du dann mit dem Ergebnis zufrieden bist,
einfach den Ordner /usr/src/* auf die anderen Rechner kopieren, entweder
mit einem lokalem FTP- , NFS- oder CVS Server und ein "make build"
starten. Ein PentiumPro200 braucht 6 Stunden um die Basis von OpenBSD zu
kompilieren. Bei der Kompilation kann der Rechner natürlich weiter
benützt werden.

Für alle Anwendungen die in /usr/ports stehen: sie werden meistens auf
eine leistungsfähige Maschine kompiliert und danach auch über FTP
übertragen. Ein "make install" auf *BSD lädt alle Daten aus dem Internet
herunter, kompiliert sie und erzeugt ein handliches "Anwendung.tgz".
Diese wird mit FTP auf die anderen Rechner kopiert. Somit brauche ich
nicht den ganzen Ordner "/usr/ports/* auf jedem Rechner zu haben, was
natürlich Zeit un Platz spart.


Bearbeitung der Daten der User:
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
Ich verwende ganz einfach ein doppeltes NFS system. Daten werden auf
einem NFS Server gespeichert und wiederum auf einem anderem Server
gespeichert. Würde sogar ein NFS ausfallen, würde der andere Server die
Arbeit aufnehmen.

ich benütze dieses Sytem seit einem Jahr mit OpenBSD (Seit OpenBSD-3.0)
und bin damit sehr zufrieden. Erstens brauche ich nicht mehr soviele CDs
zu brennen und zweitens kann ich die Sicherheit meiner Systeme viel
besser im Auge behalten: Besserer Schlaf :-)

Rettung des Systems:
^^^^^^^^^^^^^^^^^^^
* Bei rumspielen in den Systemdaten: kein Problem! Alle Tests werden auf
einem TestRechner durchgeführt und auch dort getestet.

* bei einer Hardware Panne ist es etwas schwieriger: Computer ersetzen,
die neuen Quellen in /usr/src kopieren, ein make build durchführen und
während der Kompilierung, die gespeicherten Daten in /etc und die Daten
in /home kopieren. In weniger als einer Stunde kann ein System wieder
brauchbar sein. Ich möchte hiermit zum Schluß noch betonen, daß das
System nur brauchbar ist: der letzte Schliff muß noch gegeben werden,
aber zumindest können die User wieder auf ihre Datein zugreifen, was
natürlich schon den Drück auf unsere Schultern erheblich erleichtet. 

 
Mit freundlichen Grüßen

Olivier

On Wed, 30 Apr 2003 01:57:16 +0200
Oliver Beck <manofwar at web.de> wrote:

> Mahlzeit,
> 
> ich habe mir ein VIA-Epia-M9000 Board zugelegt. Da is 'nur' eine 933MHz
> C3-CPU drauf, die nicht wirklich schnell beim kompilieren ist, was mich
> auch gleich zum Thema leitet.
> Nun hab ich vom LRs-Linux-Projekt ein '97%-LFS' draufgespielt. Wie das
> bei LFS nunmal so ist, wird alles selbst kompiliert, was auf der
> Schmalbrüstigen CPU locker mal ~5h in Anspruch nahm. Da ich gerne mit
> den Systeminternas rumspiele, mir schon des öfteren mein Linux (Debian
> und LFS) zerschossen habe und ich nicht wirklich immer 5h auf die
> fertige 'Installation' des LFS's auf dem VIA-Board warten will, stellte
> sich mir die Frage, ob jemand ein Backupsystem kennt, dass sich alle
> Daten (Partitionierungsinformationen eingeschlossen) zusammensucht,
> diese im besten Falle als ISO-9660-Image speichert und diese, wenn ich
> sie gebrannt habe auch automatisiert wiederherstellt.
> Es wäre besser, dass ich es als ISO ablegen kann, dies bestenfalls auch
> noch übers LAN, da ich keinen Brenner in dem Rechner habe.
> Was mir wichtig wäre ist, das ich dann nur noch die (bootfähige) CD
> einlege, vielleicht 1 oder 2 Abfragen beantworte/Einstellung vornehme
> und der Rest automatisch geregelt wird.
> 
> Warum diese Einfachheit?
> 
> Nun, ich spiele mit dem Gedanken, mehrere dieser Rechner anzuschaffen.
> (Klein, billig und für kleine Serveraufgaben wunderbar geeignet)
> Da dieses Board alles OnBoard hat (VGA, SND, FW, LAN, USB, CPU
> aufgelötet) und sich in dieser Konfiguration nichts ändert(bis
> vielleicht auf die HD/CD-Rom und den RAM), ist es nicht so das Problem,
> da ein fertiges Image zu übertragen. Zum anderen könnte man ein
> Grundsystem damit erstellen, dass dann für jeden leicht zu installieren
> ist, der es sich aus dem Netz läd.
> 
> 
> Vielleicht kennt jemand von euch solch ein System.
> Die Anforderungen sind kein muss, aber es sollte schon so in die
> Richtung gehen. Mindestens sollte es ein Image erstellen können, das
> ich mit Hilfe einer/zwei Boot-Disketten Wiederherstellen kann.
> 
> 
> Mfg Oliver




Mehr Informationen über die Mailingliste linux-l