• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

BlueRay Backup großer Daten

fio2100

Newbie
Hallo,
ich suche nach einer sicheren Methode große Datenmengen auf mehreren Bluerays unter zu bringen.

Nur als kleine Information, ich habe ca. 75GB (komprimiert) wichtige Daten die ich bereits gut sicher.
- Die Daten werden per rsync auf mehrere Platten verteilt
- Die Daten werden per rsync auf einen anderen Server gesichert (an einem anderen Standort)
- Die Daten werden sowohl auf dem Backupserver als auch auf dem eigentlichen Server ein Mal im Monat in einem großen Tar File abgelegt.

Der Plan:
Ich wollte jetzt diese Monatssicherung auf Bluerays unterbringen. Nach ein bisschen googeln habe ich mir ein Script zusammen gebaut das die gzip Dateien splittet und diese habe ich runter gebrannt. Soweit so gut. Das ganze Spiel mache ich jetzt schon ein halbes Jahr (mal mehr Mal weniger). Jetzt habe ich die schlaue Idee gehabt mal so eine Langzeitsicherung anzulegen die ich erst mal im Keller Bunker. Da wollte ich aber den Ultimativen Test machen und habe nach der Sicherung die Daten wieder von den Bluerays auf eine USB-Festplatte runter gezogen und die Split-Dateien per cat wieder zusammengefügt. Nach einer halben Stunde entpacken... Ende tar.gz kaputt. Ich habe dann noch ein bisschen mit Reparaturen angefangen aber ohne Ergebnis (ich gebe zu richtig Mühe habe ich mir nicht gegeben). Die gesplitteten Files von der Festplatte konnte ich wieder zusammenführen und entpacken :).

Mein zweiter Versuch war 7z. Dort kann man schon beim Packen einstellen das die Files aufgeteilt werden. Hier war einfach meine hoffnung das 7z im Fall von kaputten Daten wegen einem Optischen Medium die Dateien besser zusammen bekommt. Leider habe ich die Split Files ein bisschen zu groß gemacht und kann den Spaß jetzt noch mal packen ;). Die Mutivation zum packen fehlt mir aber, da vorher das Volumen zwar 75GB war und nach 7z nur noch 65GB allerdings dauert der Vorgang jetzt nicht mehr knapp ein Tag (packen auf Verschlüsselter USB Platte und per Netzwerk auf den Rechner mit dem Brenner verschieben), sondern fast vier Tage. Was die Sicherung jetzt auch nicht besser macht da unter andrem eine VM-Datei dabei ist die wiederum ein Mal am Tag mit neuen Daten befüllt wird. Sichert die jetzt während die gefüllt wird kann ich wahrscheinlich damit auch nichts mehr anfangen.


Jetzt die Frage. Wie kann ich die Daten vernüpftig sichern und splitten, so dass im Fall von Schreibfehler die Daten mit möglichst großer Sicherheit wiederhergestellt werden könne. Ich habe gelesen das gz2 wesentlich besser zu reparieren ist, allerdings ist da auch wieder keine Split-Funktion integriert.
 

spoensche

Moderator
Teammitglied
fio2100 schrieb:
Hallo,
ich suche nach einer sicheren Methode große Datenmengen auf mehreren Bluerays unter zu bringen.

Nur als kleine Information, ich habe ca. 75GB (komprimiert) wichtige Daten die ich bereits gut sicher.
- Die Daten werden per rsync auf mehrere Platten verteilt
- Die Daten werden per rsync auf einen anderen Server gesichert (an einem anderen Standort)
- Die Daten werden sowohl auf dem Backupserver als auch auf dem eigentlichen Server ein Mal im Monat in einem großen Tar File abgelegt.

Die Strategie ist gut. Das Verteilen würde ich anders lösen, weil die Duplizierung der Daten kann dazu führen, dass am Ende kaum noch jemand weiss was was ist. Deduplizierung ist für alle einfacher zu verwalten und am Ende weiss auch jeder was was ist.
Die BlueRay Methode ist aus finanzieller Sicht gesehen nicht wirklich kostengünstig. Statt BlueRay würde entweder Bandlaufwerke o. externe Festplatten nehmen. Auf Tapes passt einiges an Daten drauf, du kannst sie wiederverwenden und nehmen nicht so viel Platz bei der Lagerung in Anspruch wie BlueRays.

zu Punkt 3:
Lokale Backups sind so eine Sache für sich. Wenn der Server total abgeraucht ist, wie kommt man schnellstmögl. an die Daten und wie schnell kann dann ein Restore erfolgen,damit die Ausfallzeit so gering wie möglich ist?

Ein möglicher Weg wäre Backuppen->Deduplizierung->Replikation.

Der Server sichert seine Backups auf dem Backupserver, der Backupserver kopiert sie auf Tapes o.ä und repliziert sie auf den anderen Server.

So hättest du im Fehlerfall ein Backup vor Ort, zur Sicherheit auch noch auf dem anderen Server vorhanden und somit 2 Backups von einem Server ohne die Daten vorher verteilen zu müssen.

Der Vorgang ist für jeden einfacher zu verstehen und zu managen. Nebenbei verringerst du auch den Stressfaktor im Falle eines Falles.

Zur Komprimierung:

Komprimierte Daten sparen Platz, aber wenn das komprimierte Archiv defekt ist, kannst du das ganze Backup vergessen. Also je nach Wichtigkeit der Daten komprimieren bzw. nicht komprimieren. Weiterhin dauert der Restore mit komprimierten Daten um ein vielfaches länger und wenn durch das ausgefallene System die halbe oder die ganze Firma nicht arbeiten kann oder die Produktion wegen des Ausfalls steht, dann wird es in kurzer Zeit verdammt teuer und vor allem Teurer als lein paar inbvestierte Euros in Storage Kapazität.
 
OP
F

fio2100

Newbie
Mit dem Backup läuft das alles Automatisch und die Wichtigsten Daten kann ich immer lokal von drei Festplatten unkomprimiert abgreifen und komprimiert ein Mal. Der Backupserver hat die Daten dann ebenfalls auf zwei Festplatten unkomprimiert und auf einer komprimiert. Das ganze läuft voll automatisch und ich bekomme E-Mails wenn davon irgendwas nicht klapp. Das zurückspielen ist einfach da so viele Kopien vorliegen und so viele Dateien ändern sich nicht. Deswegen funktioniert das sichern übers Internet auf dem Backupserver auch sehr gut.

Mit dem Bandlaufwerk habe ich mir auch schon überlegt. Diese Methode habe ich auch schon mal mit SLR Bändern betrieben. Aber so ein LTO2 ist nicht gerade günstig ;).
 
Oben