• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

Backuplösung für komplette Serversicherung + Restore

Hi,

wir haben hier 2 Suse10.1-Server stehen. Ich bin nun auf der Suche nach einer geeigneten Backuplösung hierfür.
Mich würde erstmal interessieren, was Ihr für eure Linux-Serverumgebungen für Backuplösungen benutzt!

Ich stelle einige grundlegende Anforderungen an die Software, z.B. erstellen exakter Images von:
- Serverplatten einschl. Betriebssystem
- Applikationen, Treiber, Patches
- Datenbanken
- evtl. Backup (und Wiederherstellung) über Netzwerk
- schnelles wiederherstellen des lebenswichtigen Systems
Es soll so sein, dass ein komplettes Abbild von einem Server erstellt werden kann und dieses im Falle eines Systemcrashs o.ä. mit wenig Aufwand wieder eingespielt werden kann und alle Programme, Konfigurationen, Dienste etc. sollen wieder wie vorher funktionieren! Also soll bei einem Server-Komplettausfall in 1-2 Stunden alles wieder laufen (wenn möglich)!

Ich habe mir hierzu schon 'Acronis True Image 9.1 Server für Linux' (http://www.acronis.de/enterprise/products/ATISLin/) angeschaut, nur leider wird Suse10.1 als zu sicherndes System nicht unterstützt - zumindest was ich laut Systemanforderungen gelesen habe. Schade, denn das kann eigentlich alles, was ich brauche.

Ein wichtiger Aspekt ist natürlich auch die Sicherung von offenen Dateien (LDAP, mySQL usw.). Da das LiveServer sind, kann ich nicht so einfach mal die Datenbanken anhalten! Daher ist eine tar-Sicherung betreffender Verzeichnisse auch nicht so einfach machbar, oder?


Danke und Gruß.
 

Pfalzwolf

Member
Kürzlich hat framp die umfassende Abteilung Backup ins Wiki gestellt. Bist Du da nicht fündig geworden?
http://www.linux-club.de/faq/Backup
 

pft

Advanced Hacker
für mein Gefühl kannst Du deine Anforderungen mit EINEM Konzept nicht abdecken.

Ganze Partitionen sind ein overkill was die Datenmenge angeht. Die musst du erst mal wegschaffen. Bei einer gewisssen Größe sind da die 1-2 Std. gar nichts. (mit einer GBit Anbindung schaffst Du theoretisch 360 GB pro Stunde, praktisch liegst Du eher bei 200, wenn ich mich nicht verrechnet habe)

Dies zumal wenn man eine HD im lokalen System wg. unzureichender Sicherheit ausschließt.

Datenbanken im weitesten SInne, also auch Mail verzeichnisse auf denen ein IMAP server arbeiet etc. lassen sich damit ohne signifikante downtime nicht erschliessen. Dazu braucht es Zusatzmaßnahmen wie snapshots etc. oder DB spezifische mechanismen.

Für minimale downtime braucht eigentlich nicht nur ein backup sondern andere Lösungen, i.a. unter HA wie high availability zusammengefaßt, also div. cluster techniken.

Ich denke Du solltest deine System mal genauer analysieren:
- partionen sichern für Systemdaten die sich ja auch kaum ändern, klein sind und dir die Neuinstallation ersparen
- tar, rsync oder ähnlichen taugt für "normale" Dateien - ich finde hier dirvish recht praktisch und einfach
- Metadaten für das plattenlayout - siehe wiki
- Datenbank: spezieller Fall - ohne downtime wird es schwierig ohne cluster
 
OP
M

magic_halli

Hacker
Das hab ich mir fast so gedacht, dass es mit kompletten Partitionen und Datenbanken bzw. ständig sich ändernden Daten nicht so einfach geht. :cry:

Ich habe mir schon im Vorfeld überlegt, dass in meinem Fall vielleicht ein 1:1 Backupserver sinnvoll ist. Dieser sollte 1:1 mit dem Hauptserver ständig synchronisiert werden (rsync ?) und im Falle eines Ausfalls vom Hauptserver sofort für diesen einspringen - automatisch versteht sich. Das geht doch aber zu machen, oder?

Gut, sämtliche Verzeichnisse (außer /var und noch irgendeins?!) kann ich dann ja zusätzlich noch tar´n - bspw. inkrementell - sodass ich immer einen aktuellen Datenbestand als tar-backup habe.
Das wäre doch ne Möglichkeit, um Ausfallsicherheit+Restore mit Backups zu vereinen, oder?

Gruß
 
Oben