Hallo liebe Forumianer,
ich habe, bevor ich diesen Thread eröffne nunmehr seit mehr als zwei Wochen gegoogelt und mit viel Geduld versucht, mein Problem selbst zu lösen, komme aber einfach nicht zu einer Lösung.
Beim Googeln habe ich zwar hier und da auch einige "Leidgenossen" gefunden, die scheinbar denselben Fehler hatten wie ich, jedoch entweder keinen dazugehörigen Lösungsansatz oder die dort beschrieben Lösungswege funzten bei mir ... beseitigten aber dennoch nicht das Problem.
So nach diesem "Vorspann" also mein neuester Fall:
Auf meinem "Home-Server" mit openSuSe 11.1 laufen auf drei Festplatten (sda, sdb, sdc) vier Software-Raid (Raid5).
Die folgende Konfiguration lief bisher (seit ca. einem Jahr) ohne Fehlermeldungen stabil.
Nach einem update bleibt der Rechner im Bootvorgang stecken, wenn er auf das Raid md1 (/) zugreifen will.
Die die Festplatten sind wie folgt eingerichtet:
sda1 = /boot (Kopien als Rückfallebene auf sdb1 und sdc1)
sdc3 = swap
md1: sda2, sdb2, sdc2 = /
md2: sda3, sdb3, sdc5 = /var
md3: sda5, sdb5, sdc6 = /home
md4: sda6, sdb6, sdc7 = /share (=Samba-Freigaben)
Beim Booten startet der PC die Raids, bleibt dann jedoch mit einem kernel panic hängen und nichts geht mehr.
Ich habe dann von der openSUSE 11.1-DVD gebootet und bin in die Rettungskosole eingestiegen.
Die Raids habe ich bereits überprüft und, da bei zwei Raids jeweils eine Partition ausgestiegen war, wieder resynct. Das hat zwar ein ganzes Wochenende gedauert, aber danach zeigte dann "mdadm" an, dass die RAIDs alle o.k. sein sollen.
zumindest gibt ein cat /proc/mdstat/ folgendes Ergebnis:
Versuche die Raids zu mounten werden mit einer Fehlermeldung geblockt:
Nach langem Suchen habe ich dann in der /var/log/warn einen Hinweis gefunden und nach Eingabe von dmesg eine Bestätigung darauf erhalten, dass im ersten Raid (md1 = / = System ) offenbar etwas defekt ist.
/var/log/warn:
Auszug von dmesg:
Auch in messages (Auszug) habe ich nun einen entsprechenden Hinweis darauf gefunden, dass auf den Partitionen für das mit dem 1. Raid eine Festplattenfehler aufgetreten ist:
Nun endlich meine drei Fragen:
1.)
Ich bin mir sicher, dass die Partitionen allesamt mit ext3 partitioniert sind. Warum erhalte ich eine Meldung, die auf einen Fehler im ext2 hinweist ?
2.)
Ist es möglich das System auf md1 neu zu installieren und die Raids mit den Daten (md3 und md4) zu erhalten?
Oder sind meine Daten in Gefahr, wenn ich das bereits installierte openSUSE 11.1 auf den bisherigen Partitionen für /boot (sd[abc]1), / (sda[abc]2) und /var (sd[ab]3 | scd5) neu aufsetze ?
Die Daten-Partitionen für md3 (sda5, sdc6, sdb5) und md4 (sda6, sdc7, sdb6) würde ich natürlich unangetastet lassen.
3.)
Warum erhalte ich die Fehlermeldung beim Mounten ... obwohl ich von der DVD-Rettungskonsole gestartet habe?
Sind etwa alle meine Raids plötzlich und gleichzeitig "hinüber" ? ... obwohl (s.o.) cat /proc/mdstat/ behauptet, dass alles i.O. ist ?
Oder verstehe ich die Ausgabe falsch?
Hier noch die Ausgaben von mdadm -D /dev/md[1234]:
Ich hoffe, Ihr könnt mir helfen.
Sollten noch weitere Angaben erforderlich sein, kann ich die sofort nachliefern.
vielen Dank und viele Grüße, Daiml
ich habe, bevor ich diesen Thread eröffne nunmehr seit mehr als zwei Wochen gegoogelt und mit viel Geduld versucht, mein Problem selbst zu lösen, komme aber einfach nicht zu einer Lösung.
Beim Googeln habe ich zwar hier und da auch einige "Leidgenossen" gefunden, die scheinbar denselben Fehler hatten wie ich, jedoch entweder keinen dazugehörigen Lösungsansatz oder die dort beschrieben Lösungswege funzten bei mir ... beseitigten aber dennoch nicht das Problem.
So nach diesem "Vorspann" also mein neuester Fall:
Auf meinem "Home-Server" mit openSuSe 11.1 laufen auf drei Festplatten (sda, sdb, sdc) vier Software-Raid (Raid5).
Die folgende Konfiguration lief bisher (seit ca. einem Jahr) ohne Fehlermeldungen stabil.
Nach einem update bleibt der Rechner im Bootvorgang stecken, wenn er auf das Raid md1 (/) zugreifen will.
Die die Festplatten sind wie folgt eingerichtet:
sda1 = /boot (Kopien als Rückfallebene auf sdb1 und sdc1)
sdc3 = swap
md1: sda2, sdb2, sdc2 = /
md2: sda3, sdb3, sdc5 = /var
md3: sda5, sdb5, sdc6 = /home
md4: sda6, sdb6, sdc7 = /share (=Samba-Freigaben)
Beim Booten startet der PC die Raids, bleibt dann jedoch mit einem kernel panic hängen und nichts geht mehr.
Ich habe dann von der openSUSE 11.1-DVD gebootet und bin in die Rettungskosole eingestiegen.
Die Raids habe ich bereits überprüft und, da bei zwei Raids jeweils eine Partition ausgestiegen war, wieder resynct. Das hat zwar ein ganzes Wochenende gedauert, aber danach zeigte dann "mdadm" an, dass die RAIDs alle o.k. sein sollen.
zumindest gibt ein cat /proc/mdstat/ folgendes Ergebnis:
Code:
Personalities : [raid6] [raid5] [raid4]
md4 : active raid5 sda6[0] sdc7[3] sdb6[1]
362361856 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md3 : active raid5 sda5[0] sdc6[3] sdb5[1]
83875072 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md2 : active raid5 sda3[0] sdc5[3] sdb3[1]
20964608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md1 : active raid5 sda2[0] sdc2[3] sdb2[1]
20964608 blocks super 1.0 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
Code:
mount /dev/md1 /mnt/md1
mount: wrong fs type, bad option, bad superblock on /dev/md1,
missing codepage or helper program, or other error
in some cases useful info is found in syslog - try
dmesg | tail or so
/var/log/warn:
Code:
May 24 22:33:13 Rescue ifup: No configuration found for eth0
May 24 22:33:13 Rescue ifup: No configuration found for eth1
May 24 22:48:09 Rescue kernel: EXT2-fs error (device md1): ext2_check_descriptors: Block bitmap for group 0 not in group (block 33824)!
May 24 22:48:09 Rescue kernel: EXT2-fs: group descriptors corrupted!
May 24 22:49:07 Rescue kernel: EXT2-fs error (device md1): ext2_check_descriptors: Block bitmap for group 0 not in group (block 33824)!
May 24 22:49:07 Rescue kernel: EXT2-fs: group descriptors corrupted!
May 24 22:49:20 Rescue kernel: EXT2-fs: md2: couldn't mount because of unsupported optional features (4).
May 24 22:49:30 Rescue kernel: JBD: no valid journal superblock found
May 24 22:49:30 Rescue kernel: EXT3-fs: error loading journal.
May 24 22:52:09 Rescue kernel: sd 3:0:0:0: [sde] Assuming drive cache: write through
May 24 22:52:09 Rescue kernel: sd 3:0:0:0: [sde] Assuming drive cache: write through
May 24 22:52:24 Rescue kernel: NTFS-fs error (device sde1): load_system_files(): $LogFile is not clean. Mounting read-only. Mount in Windows.
May 24 23:10:53 Rescue kernel: ready
May 24 23:10:53 Rescue kernel: sd 4:0:0:0: [sdd] Assuming drive cache: write through
Code:
EXT2-fs error (device md1): ext2_check_descriptors: Block bitmap for group 0 not in group (block 33824)!
EXT2-fs: group descriptors corrupted!
Code:
May 24 22:48:09 Rescue kernel: EXT2-fs error (device md1): ext2_check_descriptors: Block bitmap for group 0 not in group (block 33824)!
May 24 22:48:09 Rescue kernel: EXT2-fs: group descriptors corrupted!
May 24 22:49:07 Rescue kernel: EXT2-fs error (device md1): ext2_check_descriptors: Block bitmap for group 0 not in group (block 33824)!
May 24 22:49:07 Rescue kernel: EXT2-fs: group descriptors corrupted!
May 24 22:49:20 Rescue kernel: EXT2-fs: md2: couldn't mount because of unsupported optional features (4).
May 24 22:49:30 Rescue kernel: JBD: no valid journal superblock found
May 24 22:49:30 Rescue kernel: EXT3-fs: error loading journal.
Nun endlich meine drei Fragen:
1.)
Ich bin mir sicher, dass die Partitionen allesamt mit ext3 partitioniert sind. Warum erhalte ich eine Meldung, die auf einen Fehler im ext2 hinweist ?
2.)
Ist es möglich das System auf md1 neu zu installieren und die Raids mit den Daten (md3 und md4) zu erhalten?
Oder sind meine Daten in Gefahr, wenn ich das bereits installierte openSUSE 11.1 auf den bisherigen Partitionen für /boot (sd[abc]1), / (sda[abc]2) und /var (sd[ab]3 | scd5) neu aufsetze ?
Die Daten-Partitionen für md3 (sda5, sdc6, sdb5) und md4 (sda6, sdc7, sdb6) würde ich natürlich unangetastet lassen.
3.)
Warum erhalte ich die Fehlermeldung beim Mounten ... obwohl ich von der DVD-Rettungskonsole gestartet habe?
Sind etwa alle meine Raids plötzlich und gleichzeitig "hinüber" ? ... obwohl (s.o.) cat /proc/mdstat/ behauptet, dass alles i.O. ist ?
Oder verstehe ich die Ausgabe falsch?
Hier noch die Ausgaben von mdadm -D /dev/md[1234]:
Code:
/dev/md1:
Version : 1.00
Creation Time : Fri May 14 12:40:01 2010
Raid Level : raid5
Array Size : 20964608 (19.99 GiB 21.47 GB)
Used Dev Size : 20964608 (19.99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sun May 23 00:55:05 2010
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 1
UUID : b8c4db56:bd532870:098e9e2b:718b6900
Events : 6
Number Major Minor RaidDevice State
0 8 2 0 active sync /dev/sda2
1 8 18 1 active sync /dev/sdb2
3 8 34 2 active sync /dev/sdc2
Code:
/dev/md2:
Version : 1.00
Creation Time : Fri May 14 13:10:40 2010
Raid Level : raid5
Array Size : 20964608 (19.99 GiB 21.47 GB)
Used Dev Size : 20964608 (19.99 GiB 21.47 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat May 22 19:55:25 2010
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 2
UUID : bed45248:36ef43fc:2ce465b7:08891fea
Events : 4
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
3 8 37 2 active sync /dev/sdc5
Code:
/dev/md3:
Version : 1.00
Creation Time : Fri May 14 13:12:26 2010
Raid Level : raid5
Array Size : 83875072 (79.99 GiB 85.89 GB)
Used Dev Size : 83875072 (79.99 GiB 85.89 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sun May 23 01:08:52 2010
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 3
UUID : e2df23a2:a11410cd:ce2556b4:a692322c
Events : 4
Number Major Minor RaidDevice State
0 8 5 0 active sync /dev/sda5
1 8 21 1 active sync /dev/sdb5
3 8 38 2 active sync /dev/sdc6
Code:
/dev/md4:
Version : 1.00
Creation Time : Fri May 14 13:24:21 2010
Raid Level : raid5
Array Size : 362361856 (345.58 GiB 371.06 GB)
Used Dev Size : 362361856 (345.58 GiB 371.06 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat May 22 19:55:25 2010
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 4
UUID : 65c9d82a:7b85280e:d1f5eef6:707e90c5
Events : 6
Number Major Minor RaidDevice State
0 8 6 0 active sync /dev/sda6
1 8 22 1 active sync /dev/sdb6
3 8 39 2 active sync /dev/sdc7
Ich hoffe, Ihr könnt mir helfen.
Sollten noch weitere Angaben erforderlich sein, kann ich die sofort nachliefern.
vielen Dank und viele Grüße, Daiml