[linux-l] Re: Datensicherheit

Peter Ross Peter.Ross at alumni.tu-berlin.de
Mo Jan 9 09:56:31 CET 2006


On Sun, 8 Jan 2006, Lutz Willek wrote:

> Auf einem Server sieht die Sache anders aus. Du als Anwender
> entscheidest nicht was gesichert wird und der Administrator kann es
> nicht entscheiden, da er die Relevanz Deiner Daten nicht kennt. Also
> wird entweder alles gesichert oder gar nichts. Die anfallenden
> Datenmengen beim Backup sind i.allg. auch groesser als auf der 
> Workstation
> zu Hause. Deswegen fuehrt eigentlich kein Weg am inkrementellem Backup
> vorbei.

Jede vernuenftige Backupsoftware bietet Moeglichkeiten, nicht relevante 
Daten beim Backup auszulassen.

Es ist dann eines Administratoren Aufgabe, dem Nutzer zu kommunizieren, 
wie das zu handhaben ist (z.B. alles, was man nicht sichern will, in 
$HOME/tmp zu lagern, Daten, die mal ins Archiv kommen sollen, nach 
$HOME/archive zu kopieren/verschieben etc.- die werden dann auf einem 
Archiv verewigt und dann geloescht).

> Die Verfuegbarkeit eines Backups ist ein weiterer Punkt. Es hilft 
> nichts,
> wenn alles gesichert wird und Du als Anwender erst den Admin fragen
> musst. Der ist chronisch ueberlastet und so dauert es drei Tage, bis Du
> Zugang zu den Daten hast....wenn ueberhaupt. Also muss eine 
> automatische
> Moeglichkeit her. Dabei darf der User aber nur seine Daten erhalten und
> das Backup nicht zerschiessen...

Das ist unpraktikabel. Zu vernuenftiger Administration gehoert es dazu, 
dass Daten in absehbarer Zeit restauriert werden koennen, sonst ist es ein 
unbrauchbares Backup.

> Dann spielt die Wichtigkeit der Daten
> eine Rolle. Wie weit zurueck muessen die Daten verfuegbar sein und wie
> sicher?

Downunder muessen einige Daten ueber sieben Jahre fuer das Steueramt 
gehalten werden, es ist im Interesse des Unternehmens, langfristige 
Archive zu fuehren. Software wie TSM (IBM Tivoli Storage Manager) 
unterscheidet zwischen Backup und Archiv.

Mit GNU-tar basierten Skripts oder amanda bin ich damit einigermassen gut 
gefahren, ein Mix aus Voll- und inkrementellem Backup auf Baendern zu 
fahren, wobei in regelmaessigen Abstaenden Baender mit Vollbackup aus der 
Rotation genommen und ins Archiv gestellt wurden.

Das Herzstueck einer Firma, bei der ich vier Jahre Admin war, ist eine 
Datenbank, die woechentlich in ein Textfile gedumpt wurde, was dann 
komprimiert auf CD gelagert wird, als zusaetzliche Moeglichkeit, diese 
Daten wiederherzustellen, was gelegentlich noetig war, nicht wegen 
Datenverlust, sondern weil alte Daten wieder erfragt wurden, die einem 
regelmaessigen Ausmisten alter Daten "zum Opfer" gefallen waren.

> Ich kann 2x täglich die Daten(2 GB Gesamtgröße) meines /home auf einen
> NAS speichern, wobei ich ständigen Zugriff auf das Backup des letzten
> Monats haben will und insgesamt Zugriff auf die letzten 5 Jahre.
>
> Lösungsbeispiel: cronjob alle 4 Arbeitsstunden  aufs NAS: inkrementelles
> Backup mit bsp. cvs. Einmal alle 6 Monate ein vollständiges
> verschlüsseltes komprimiertes Backup des NAS auf DVD's mit tar/split.
> Und einmal im Monat inkrementelles Backup des NAS auf 6 DVD-Ram. Die
> DVD's lagert man bei Freunden/der Bank, die DVD-Ram zu Hause.
> Ausfall Computer: 4 Arbeitsstunden weg
> Ausfall Computer/NAS: 1 Monat weg
> Ausfall Computer/NAS/DVD-RAM: 6 Monate weg
> Aufwand pro Jahr: 12 Stunden Zeit, 30 Euro Material

Du scheinst den NAS umsonst zu kriegen? Wer administriert den denn?

Ein Browsercache z.B. ist sinnlos, und wird bei annaehernd jedem 
inkrementellen Backup komplett geschrieben werden.

In einem Firmenumfeld mit NAS flutest Du natuerlich wunderbar das Netz 
und NAS, wenn das jeder so macht.

Ansonsten:

(I mean - what have you got to lose?)
(You know, you come from nothing - you're going back to nothing.
What have you lost? Nothing!)
Always look on the right side of life...

Peter


Mehr Informationen über die Mailingliste linux-l