• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

[geloest] Software-Raids Superblock defekt,kein Boot möglich

Knappe

Hacker
Hallo,

habe neuen Kernel unter open SuSE 10.2 ausprobiert und dabei einen "Total"-Absturz gehabt.

Ganz offensichtlich sind dabei meine beiden Raid-1 beschädigt worden.

Es handelt sich dabei um Software-Raids :
/dev/md0 = /dev/sda1/ + /dev/sdb1
/dev/md1 = /dev/sdc1/ + /dev/sdd1

Beim Booten erhalte ich sofort die Meldung, dass eine automatische Korrektur aus dem Log heraus nicht möglich ist, da dieses "zerschossen" wäre und der
der Superblock auf /dev/md0
beschädigt ist

Dateisystem ist auf beiden Raids übrigens XFS.

Habe versucht mit Kernel-Failsafe zu booten --> kein Erfolg (eigentlich ja auch logisch).



Habe dann mal mit Knoppix gebootet :
1. Alle Platten wurden einzeln einwandfrei erkannt (/dev/sda1..../dev/sdd1)
2. mdadm --examine /dev/sda1
---> ergibt alles ok, Zustand ist active sync (bei sda und die sdb = komplettes Raid also)
3. mdadm --examine /dev/sdc1
----> ergibt das gleiche wie beim anderen Raid
4. Alle states sind "clean", überhaupt keine Probleme erkennbar !

Aber openSuSE sagt eben, der Superblock ist zerschossen.

Wie komme ich nun wieder an ein funktionierendes Raid (ohne Datenverlust) ?


:?:

[Edit]
Dürfte ich denn jetzt den/die Superblocks mit
Code:
xfs_repair
auf den einzelnen Platten reparieren oder "zerschiesse" ich mir dann alles ?

Via Knoppix habe ich mal
Code:
xfs_repair -n ...
laufen lassen.

Das Ergebnis :
Phase 1 - find and verfiy superblock...
Phase 2 - using internal log
- scan filesystem freespace and inode maps...
- found inode chunk
Phase 3 - for each AG...
....
imap claims a free inode XXXXXXXX is in use, would correct map and clear inode
....
...
bad blocks 2202 for inode XXXXX would reset to 2205

usw.
usw.

Habe "irgendwo" gelesen, das man sich ggf. mit diesem Utillity das ganze Raid zerschiesst ?
 
OP
K

Knappe

Hacker
Ufff....


... dank meiner Freunde "Knoppix 5.2" und "xfs_repair" konnte ich das Problem beseitigen :

1. mit Knoppix von DVD-Laufwerk booten
2. Konsole starten und mit "su" die notwendigen Rechte besorgen
3. mit mkdir einen Mountpoint anlegen "/mnt/mysda1" (/dev/sda1 ist bei die 1. Raid-1 Platte !!!)
4. dann mount -t xfs -o ro /dev/sda1 /mnt/mysda1
--->bekam jetzt die Fehlermeldung, dass Superblock defekt sei !
5. vorsichtshalber mit "xfs_check /dev/sda1" nochmals einen Check ueber die Raid-Platte gefahren (nicht unbedingt notwendig, da ...)
6. dann "xfs_repair -L -n /dev/sda1" aufgerufen (die Option "-n" verhindert jedoch das Schreiben von korrigierten Daten (also nochmals "nur" ein Test)
7. den Printout dieser Testergebnisse (auf einer anderen (nicht-Raid)Platte ) gesichtert !
8. jetzt erst "xfs_repair -L /dev/sda1" gestartet

Ergebnis :
- Superblock wurde wieder hergestellt
- 1 defekten Eintrag (verwaist) geloescht
- 1 fehlerhaft gelinkten Eintrag in Verzeichnis "lost+found" verschoben

Abschliessend noch mit
Code:
mount -t xfs -o ro /dev/sda1 /mnt/mysda1
geprueft, ob sich die Platte nunmehr mounten laesst : alles ok !


Server runtergefahren und openSuSE 10.2 neu gestartet.
Keine Probleme mit dem Bootvergang.

Da es sich bei mir um ein Raid-1 handelt, ist "mdadm_resync" im Moment dabei, die beiden Platten wieder zu syncronisieren.


Noch ein Hinweis :
Ich habe mit Absicht nur die 1.te Festplatte mit "xfs_repair" repariert (obwohl gemaess o.g. Test auch die Zweite defekt war).
Waere naemlich die o.g. Reparatur erfolglos geblieben (doch kein booten moeglich), dann haette ich immer noch diesen Sicherheitsanker gehabt !

Und wie gesagt, jetzt syncronisiert "mdadm" ja nun (richtiger- und sinnigerweise).

Setzte diesen Thread nun voellig verschwitzt auf geloest :wink:
 
Na heftig!
Hoffe daß ich mit meinen 2 RAIDs nicht sowas mal durchmachen muss. (Aber jetzt hätt ich wenigstens ne 'Anleitung')
Never touch a running System ;-)
 
Oben