Diese Website existiert nur weil wir Werbung mit AdSense ausliefern.
Bitte den AdBlocker daher auf dieser Website ausschalten! Danke.

Backuplösung für komplette Serversicherung + Restore

Alles rund um die Systemverwaltung, die Administration und Konfiguration Eures Linuxsystems

Moderator: Moderatoren

Antworten
magic_halli
Hacker
Hacker
Beiträge: 369
Registriert: 10. Jul 2006, 08:44

Backuplösung für komplette Serversicherung + Restore

Beitrag von magic_halli » 11. Jul 2007, 14:55

Hi,

wir haben hier 2 Suse10.1-Server stehen. Ich bin nun auf der Suche nach einer geeigneten Backuplösung hierfür.
Mich würde erstmal interessieren, was Ihr für eure Linux-Serverumgebungen für Backuplösungen benutzt!

Ich stelle einige grundlegende Anforderungen an die Software, z.B. erstellen exakter Images von:
- Serverplatten einschl. Betriebssystem
- Applikationen, Treiber, Patches
- Datenbanken
- evtl. Backup (und Wiederherstellung) über Netzwerk
- schnelles wiederherstellen des lebenswichtigen Systems
Es soll so sein, dass ein komplettes Abbild von einem Server erstellt werden kann und dieses im Falle eines Systemcrashs o.ä. mit wenig Aufwand wieder eingespielt werden kann und alle Programme, Konfigurationen, Dienste etc. sollen wieder wie vorher funktionieren! Also soll bei einem Server-Komplettausfall in 1-2 Stunden alles wieder laufen (wenn möglich)!

Ich habe mir hierzu schon 'Acronis True Image 9.1 Server für Linux' (http://www.acronis.de/enterprise/products/ATISLin/) angeschaut, nur leider wird Suse10.1 als zu sicherndes System nicht unterstützt - zumindest was ich laut Systemanforderungen gelesen habe. Schade, denn das kann eigentlich alles, was ich brauche.

Ein wichtiger Aspekt ist natürlich auch die Sicherung von offenen Dateien (LDAP, mySQL usw.). Da das LiveServer sind, kann ich nicht so einfach mal die Datenbanken anhalten! Daher ist eine tar-Sicherung betreffender Verzeichnisse auch nicht so einfach machbar, oder?


Danke und Gruß.
Suse10.1
AMD X2 DualCore 4400+
2GB RAM

Werbung:
Benutzeravatar
Pfalzwolf
Member
Member
Beiträge: 195
Registriert: 21. Jul 2005, 12:28
Wohnort: Pfalz, nahe SP
Kontaktdaten:

Wiki

Beitrag von Pfalzwolf » 11. Jul 2007, 17:45

Kürzlich hat framp die umfassende Abteilung Backup ins Wiki gestellt. Bist Du da nicht fündig geworden?
http://www.linux-club.de/faq/Backup
SuSE Leap 42.2|ASUS Prime X370-PRO|Ryzen 7 1700|GraKa:MSI GTX 1050 Ti|LAN: Intel I211AT Gigabit LAN | 4.4.70-18.9-default|KDE 5.8.6

pft
Advanced Hacker
Advanced Hacker
Beiträge: 843
Registriert: 22. Dez 2004, 13:01

Beitrag von pft » 11. Jul 2007, 19:15

für mein Gefühl kannst Du deine Anforderungen mit EINEM Konzept nicht abdecken.

Ganze Partitionen sind ein overkill was die Datenmenge angeht. Die musst du erst mal wegschaffen. Bei einer gewisssen Größe sind da die 1-2 Std. gar nichts. (mit einer GBit Anbindung schaffst Du theoretisch 360 GB pro Stunde, praktisch liegst Du eher bei 200, wenn ich mich nicht verrechnet habe)

Dies zumal wenn man eine HD im lokalen System wg. unzureichender Sicherheit ausschließt.

Datenbanken im weitesten SInne, also auch Mail verzeichnisse auf denen ein IMAP server arbeiet etc. lassen sich damit ohne signifikante downtime nicht erschliessen. Dazu braucht es Zusatzmaßnahmen wie snapshots etc. oder DB spezifische mechanismen.

Für minimale downtime braucht eigentlich nicht nur ein backup sondern andere Lösungen, i.a. unter HA wie high availability zusammengefaßt, also div. cluster techniken.

Ich denke Du solltest deine System mal genauer analysieren:
- partionen sichern für Systemdaten die sich ja auch kaum ändern, klein sind und dir die Neuinstallation ersparen
- tar, rsync oder ähnlichen taugt für "normale" Dateien - ich finde hier dirvish recht praktisch und einfach
- Metadaten für das plattenlayout - siehe wiki
- Datenbank: spezieller Fall - ohne downtime wird es schwierig ohne cluster
Sagt der Porsche bei 250 km/h zu seinem Fahrer: "Ich kann noch mehr - Du auch?"
... Ich hab zwar keinen Porsche aber dafür Linux

magic_halli
Hacker
Hacker
Beiträge: 369
Registriert: 10. Jul 2006, 08:44

Beitrag von magic_halli » 12. Jul 2007, 08:02

Das hab ich mir fast so gedacht, dass es mit kompletten Partitionen und Datenbanken bzw. ständig sich ändernden Daten nicht so einfach geht. :cry:

Ich habe mir schon im Vorfeld überlegt, dass in meinem Fall vielleicht ein 1:1 Backupserver sinnvoll ist. Dieser sollte 1:1 mit dem Hauptserver ständig synchronisiert werden (rsync ?) und im Falle eines Ausfalls vom Hauptserver sofort für diesen einspringen - automatisch versteht sich. Das geht doch aber zu machen, oder?

Gut, sämtliche Verzeichnisse (außer /var und noch irgendeins?!) kann ich dann ja zusätzlich noch tar´n - bspw. inkrementell - sodass ich immer einen aktuellen Datenbestand als tar-backup habe.
Das wäre doch ne Möglichkeit, um Ausfallsicherheit+Restore mit Backups zu vereinen, oder?

Gruß
Suse10.1
AMD X2 DualCore 4400+
2GB RAM

pft
Advanced Hacker
Advanced Hacker
Beiträge: 843
Registriert: 22. Dez 2004, 13:01

Beitrag von pft » 12. Jul 2007, 09:02

im Prinzip ja.

allerdings wirst Du die DB kaum per rsync synchronisieren können. Zumindest nicht ohne weitere Maßnahmen.

Lies mal das hier:
http://www.little-idiot.de/mysql/mysql-261.html

Ansonsten gäb es da noch MySQL-Cluster

wie es bei anderen DBs aussieht weiß ich nicht (ausser Oracle RAC)
Sagt der Porsche bei 250 km/h zu seinem Fahrer: "Ich kann noch mehr - Du auch?"
... Ich hab zwar keinen Porsche aber dafür Linux

Blackscreen
Member
Member
Beiträge: 123
Registriert: 6. Mai 2006, 20:27

Beitrag von Blackscreen » 12. Jul 2007, 15:26

Bei MySQL solltest du Replikation verwenden um die Server zu synchronisieren.

Als Backuplösung könntest du dir mal ZRM ansehen.

Antworten