[linux-l] Re: Datensicherheit

Lutz Willek willek at gmx.de
So Jan 8 14:43:52 CET 2006


Am Sonntag, den 08.01.2006, 12:00 +0100 schrieb Volker Grabsch:
> On Sun, Jan 08, 2006 at 07:49:34AM +0100, Lutz Willek wrote:
> >.. Also sind Festplatten wirklich nicht als
> > Backupmedium zu gebrauchen. ..
> 
> Genau deswegen gibt es aber die gängige (von mir bereits geäußerte)
> Empfehlung, die Platte alle 6 Monate neu zu beschreiben. Bringt das
> deiner Meinung nach etwas?
Du beantwortest Die Frage zum Teil schon selbst:

> Allerdings wenn man seine Daten alle 6 Monate eh auffrischen muss,
> kann man auch gleich zu CD/DVD-Rohlingen greifen, und sie alle 6 Monate
> (vielleicht auch alle 2 Jahre) auf einen neuen Rohling brennen. Ist
> wahrscheinlich sogar sinnvoller.
Genau darum geht es. Aus der Erkenntnis das Backupmedien für den
Privatgebrauch nicht ewig halten und das das meiste davon nicht
"Speicherwürdig" ist ergibt sich eine sinnvolle Backupmöglichkeit.
Alle laufend anfallenden Daten werden regelmäßig automatisch einem
Backup unterzogen und in größeren Abständen gezieltes Auslagern,
unabhängig vom Backup. Diese Variante funktioniert bei mir recht gut. Im
groben mache ich es ähnlich wie Du: 

> Wenn das Archiv sich in Grenzen hält, wäre dies nur eine DVD. Ich
> weiß ja nicht, wie es bei euch aussieht, aber ich habe ein "work/"
> und ein "archive/" Verzeichnis, wobei das "work/"-Verzeichnis all
> das beinhaltet, was ich demnächst noch brauchen werde. In unregelmäßigen
> Abständen wandern dann einige Unterordner von work/ nach archive/, wenn
> sie alt bzw. abgeschlossen sind.
> 
> Das work/-Verzeichnis erfährt ein wöchentliches externes Backup und
> passt locker zweimal auf eine CD. Das ist alle 14 Tage ein neuer
> Rohling, und effektiv müssen die Rohlinge damit höchsten 28 Tage lang
> halten. Das archive/-Verzeichnis hingegen landet momentan auf einer
> exterenen Festplatte, könnte aber ebenfalls nochmal alle 6 Monate
> auf eine oder mehrere DVDs gebrannt werden.
Auf einem Server sieht die Sache anders aus. Du als Anwender
entscheidest nicht was gesichert wird und der Administrator kann es
nicht entscheiden, da er die Relevanz Deiner Daten nicht kennt. Also
wird entweder alles gesichert oder gar nichts. Die anfallenden
Datenmengen beim Backup sind i.allg. auch größer als auf der Workstation
zu Hause. Deswegen führt eigentlich kein Weg am inkrementellem Backup
vorbei. 

Die Verfügbarkeit eines Backups ist ein weiterer Punkt. Es hilft nichts,
wenn alles gesichert wird und Du als Anwender erst den Admin fragen
musst. Der ist chronisch überlastet und so dauert es drei Tage, bis Du
Zugang zu den Daten hast....wenn überhaupt. Also muss eine automatische
Möglichkeit her. Dabei darf der User aber nur seine Daten erhalten und
das Backup nicht zerschießen... Dann spielt die Wichtigkeit der Daten
eine Rolle. Wie weit zurück müssen die Daten verfügbar sein und wie
sicher?

Diese Überlegungen werden selten angestellt, als Folge davon werden
unzureichende oder keine Datensicherungen erstellt. Es wird sinnlos Raid
verwendet, da man sich davon eine höhere Ausfallsicherheit verspricht.
Es werden Backups gemacht, die nicht zu gebrauchen sind. Es werden die
falschen Daten gespeichert. Du sagst es ja selbst:

> Ein inkrementelles Archiv habe ich auch schonmal versucht, was jedoch
> damals zu ca. 40-50 CDs voller Datenmüll geführt hat. Datenmüll deshalb,
> weil zum einen dort Sachen lagerten, die ich lange nicht mehr gebrauchen
> kann. Das andere, größere, Problem war der Index. Ich habe mir eine
> große Verzeichnis-Hierarchie ausgedacht, in die ich nachträglich alle
> neuen Daten eingeordnet habe. Diese Hierarchie hat sich jedoch immer wieder
> als ungeeignet herausgestellt, aber ich konnte sie ja nicht einfach ändern.
> Also habe ich all die CDs wieder eingelesen, diese große Verzeichnis-
> Hierarchie aufgebaut, und sie dann umgeordnet. Eine Schweinearbeit.
> Deshalb lasse ich mein Archiv lieber in einem Stück, dann kann ich
> 1) jederzeit aussortieren, 2) jederzeit umsortieren und 3) brauche
> ich keinen komplizierten Haupt-Index, der mir verrät, welche CD(s) ich
> brauche, um dieses oder jenes zu finden.
Das bestätigt meine Annahmen. Meine Liste oben darf deshalb nach
Gutdünken verlängert werden. Es bringt daher wenig zu fragen:

> Es würde mich einmal interessieren, wie das bei euch so aussieht.
> Wie geht ihr mit dem großen Datenhaufen um? Wie groß ist es? Wie
> behaltet ihr die Übersicht? Wie regelt ihr das mit dem Backup?

Der Grund ist, das die Ansprüche und deshalb die Lösungen dazu viel zu
verschieden sind. Etwas ähnliches wurde letztes Jahr auf der deutschen
Debian- Mailingliste diskutiert. Hier der Google-Link dazu:
http://groups.google.de/group/linux.debian.user.german/browse_thread/thread/5873565d313596dd/31aef8a90e0b57bd?q=sicherung+raid&rnum=1#31aef8a90e0b57bd
[Werbung]Im übrigen ist die Liste eine wahre Fundgrube, nur der traffic
ist verdammt hoch[/Werbung]

Ich würde bevor ich irgendwas sichere *ganz* *genau* _*überlegen*_ was
ich wann wie schnell brauche. Und diese Ansprüche zu formulieren fällt
sehr sehr schwer. Andererseits ist danach die Fragerei nach einer
passenden Backup- Lösung hinfällig, wenn die Ansprüche genau definiert
sind fällt die Sicherung relativ leicht. Hier einige Anregungen:

Wie wichtig ist mein Backup?
[] Überlebenswichtig, eine (Daten)Stunde kostet meiner Firma ein
Vermögen oder/und mir den Job
[] sehr wichtig, ein (Daten)Tag kostet meiner Firma...
[] wichtig, eine (Daten)Woche kostet meiner Firma...
[] wichtig, als privater Anwender ist mir eine (Daten)Woche... 
[] nicht so wichtig, Unsere Firma kann alle benötigten Daten innerhalb
eines Monats wieder beschaffen
[] nicht so wichtig, Hauptsache ich komme an meine wichtigsten Daten..
[] eher unwichtig, unsere Firma hat alle benötigten Daten innerhalb
einer Woche  wieder beisammen.
[] eher unwichtig, fast alle Daten bekomme ich von irgendwo wieder
[] unwichtig

Wie oft muss ich sichern? (ergibt sich aus 1)
[] ... mal pro ...

Wie viele *veränderte* Daten habe ich pro ... maximal zu sichern?
[] x mb oder weniger
[] xx mb
[] xxx mb
[] x gb

Wie viele Daten habe ich pro ... als *Gesamtheit* zu sichern?
[] x mb oder weniger
[] xx mb
[] xxx mb
[] x gb
[] mehr als x gb

Wie weit möchte ich auf meine Sicherung *ständig* zugreifen können?
[] gar nicht
[] Stunden zurück
[] Tage zurück
[] Wochen zurück
[] Monate zurück

Wie weit möchte ich mit *wenig* Aufwand auf meine Sicherung zugreifen
können?
[] gar nicht
[] Stunden zurück
[] Tage zurück
[] Wochen zurück
[] Monate zurück
[] Jahre zurück

Wie weit *muß* ich *irgendwie* auf meine Sicherung zugreifen können?
[] Stunden zurück
[] Tage zurück
[] Wochen zurück
[] Monate zurück
[] Jahre zurück
[] Jahrzehnte zurück

Wie schnell müssen die Daten vom Backup zu holen sein?
[] sofort
[] Minuten
[] Stunden
[] länger, Hauptsache ich komme ran

Auf was kann ich sichern?
[] Disketten
[] Platten
[] Bänder
[] CD
[] DVD
[] DVD RAM
[] NAS
[] Backup Server
[] externer Backup Server
[] .....................

Wenn diese Fragen beantwortet sind dann hat man schon die halbe Miete.
Die Backuplösung ist dann in einen (wenigen) Satz zu beschreiben. 

Beispiel:
Ich kann 2x täglich die Daten(2 GB Gesamtgröße) meines /home auf einen
NAS speichern, wobei ich ständigen Zugriff auf das Backup des letzten
Monats haben will und insgesamt Zugriff auf die letzten 5 Jahre.

Lösungsbeispiel: cronjob alle 4 Arbeitsstunden  aufs NAS: inkrementelles
Backup mit bsp. cvs. Einmal alle 6 Monate ein vollständiges
verschlüsseltes komprimiertes Backup des NAS auf DVD's mit tar/split.
Und einmal im Monat inkrementelles Backup des NAS auf 6 DVD-Ram. Die
DVD's lagert man bei Freunden/der Bank, die DVD-Ram zu Hause. 
Ausfall Computer: 4 Arbeitsstunden weg
Ausfall Computer/NAS: 1 Monat weg
Ausfall Computer/NAS/DVD-RAM: 6 Monate weg 
Aufwand pro Jahr: 12 Stunden Zeit, 30 Euro Material

Mich würde interessieren ob ich irgend einen wichtigen Aspekt übersehen
habe. Was ist bei der Entscheidungsfindung noch wichtig? Schreibt mal
wat.

Lutz





Mehr Informationen über die Mailingliste linux-l