Hallo Leute,
jetzt ist's passiert, nach dem letzten Schritt bei der Umstellung meines 11.0 Homeserver
startet das RAID5 nicht mehr.
Leitfaden hierzu waren die beiden Artikel der c't 1 und 2 2009.
Kurz zu meiner Systemumgebung. Im System sind nun 3 Platten (2x1TB und 1x750GB) auf dem
jetzt 1 256MB RAID1 (/dev/md0) als Boot-Partition und ein 1,5TB RAID5 (dev/md1) mit
drüberliegenden LVM liegt, in dem wiederum die Root, /var und /srv als separate Volumes
enthalten sind.
Das System lief prima und nur eine Sache wollte ich noch machen: Das RAID5 auf die
maximale Größe erweitern.
Nachdem der Befehl
mdadm /dev/md1 --grow --size=max
im laufenden System nicht wollte, habe ich KNOPPIX 5.3 gebootet und diese Operation da
ausgeführt. Das lief auch ohne Fehlermeldung durch, fdisk zeigte mir das /dev/md1 auch
mit der neuen Größe korrekt an. Das LVM lies sich auch in KNOPPIX starten und das
testweise mounten der Volumes klappte auch.
Nur der anschließende Start des eigentlichen Systems schlug fail, da das RAID5 und somit
auch das LVM nicht mehr gestartet werden konnte.
Habe dann nochmals KNOPPIX gebootet, da konnte ich das RAID5 auch nicht mehr korrekt
starten, das LVM startete mit Fehler aber die Volumes konnte ich noch sehen aber nicht
mehr mounten.
Habe dann das Rettungssystem der 11.1 gestartet, der kann natürlich auch nicht mehr das
RAID5 starten, wohingegen das RAID1 korrekt gestartet wird.
Beim Start kommt es hierbei zu folgenden (Fehler-)Meldungen:
# mdadm --assemble -v --force /dev/md1 /dev/sda2 /dev/sdb3 /dev/sdc3
mdadm: looking for devices for /dev/md1
mdadm: /dev/sda2 is identified as a member of /dev/md/1, slot 0.
mdadm: /dev/sdb3 is identified as a member of /dev/md/1, slot 2.
mdadm: /dev/sdc3 is identified as a member of /dev/md/1, slot 1.
mdadm: added /dev/sdc3 to /dev/md/1 as 1
mdadm: added /dev/sdb3 to /dev/md/1 as 2
mdadm: added /dev/sda2 to /dev/md/1 as 0
mdadm: failed to RUN_ARRAY /dev/md/1: Input/output error
In /var/log/messages steht dann
May 31 11:16:35 Rescue kernel: md: bind<sdc3>
May 31 11:16:35 Rescue kernel: md: bind<sdb3>
May 31 11:16:35 Rescue kernel: md: bind<sda2>
May 31 11:16:35 Rescue kernel: raid5: device sda2 operational as raid disk 0
May 31 11:16:35 Rescue kernel: raid5: device sdb3 operational as raid disk 2
May 31 11:16:35 Rescue kernel: raid5: device sdc3 operational as raid disk 1
May 31 11:16:35 Rescue kernel: raid5: allocated 3176kB for md1
May 31 11:16:35 Rescue kernel: raid5: raid level 5 set md1 active with 3 out of 3
devices, algorithm 0
May 31 11:16:35 Rescue kernel: RAID5 conf printout:
May 31 11:16:35 Rescue kernel: --- rd:3 wd:3
May 31 11:16:35 Rescue kernel: disk 0, o:1, dev:sda2
May 31 11:16:35 Rescue kernel: disk 1, o:1, dev:sdc3
May 31 11:16:35 Rescue kernel: disk 2, o:1, dev:sdb3
May 31 11:16:35 Rescue kernel: attempt to access beyond end of device
May 31 11:16:35 Rescue kernel: sda2: rw=8, want=1464613923, limit=1464613920
May 31 11:16:35 Rescue kernel: attempt to access beyond end of device
May 31 11:16:35 Rescue kernel: sdb3: rw=8, want=1464613923, limit=1464613920
May 31 11:16:35 Rescue kernel: attempt to access beyond end of device
May 31 11:16:35 Rescue kernel: sdc3: rw=8, want=1464613923, limit=1464613920
May 31 11:16:35 Rescue kernel: md1: bitmap initialisation failed: -5
May 31 11:16:35 Rescue kernel: md1: failed to create bitmap (-5)
Ein
# mdadm --detail /dev/md1 spuckt aus
/dev/md1:
Version : 1.00
Creation Time : Wed May 27 18:20:08 2009
Raid Level : raid5
Used Dev Size : 732306816 (698.38 GiB 749.88 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat May 30 16:47:05 2009
State : active, Not Started
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-asymmetric
Chunk Size : 128K
Name : 1
UUID : b90c1a32:a7ceb166:2004618a:dc8b44cf
Events : 32502
Number Major Minor RaidDevice State
4 8 2 0 active sync /dev/sda2
5 8 35 1 active sync /dev/sdc3
3 8 19 2 active sync /dev/sdb3
Es erscheint mir offensichtlich, dass ewas mit dem Vergrößern nicht geklappt hat, da er
über das Ende hinaus zugreifen will.
Die Frage stellt sich jetzt, ist da noch etwas zu Reparieren? In Netz konnte ich bei
meiner Suche leider kein vergleichbares Fehlerszenario finden.
Weis jemand Rat?
Ich brauche ja wohl nicht zu erwähnen dass da eine Menge Daten drauf sind die ich
eigentlich wieder haben möchte. Zwar habe ich komplette Backups des Systems auf Band aber
halt nicht die wirklich großen Sachen wie Virtuelle Maschinen, Videos, iSCSI Laufwerke
Vielen Dank für Antworten schon im voraus
Gruß Manfred
ps
Euch allen frohe Pfingsten
jetzt ist's passiert, nach dem letzten Schritt bei der Umstellung meines 11.0 Homeserver
startet das RAID5 nicht mehr.
Leitfaden hierzu waren die beiden Artikel der c't 1 und 2 2009.
Kurz zu meiner Systemumgebung. Im System sind nun 3 Platten (2x1TB und 1x750GB) auf dem
jetzt 1 256MB RAID1 (/dev/md0) als Boot-Partition und ein 1,5TB RAID5 (dev/md1) mit
drüberliegenden LVM liegt, in dem wiederum die Root, /var und /srv als separate Volumes
enthalten sind.
Das System lief prima und nur eine Sache wollte ich noch machen: Das RAID5 auf die
maximale Größe erweitern.
Nachdem der Befehl
mdadm /dev/md1 --grow --size=max
im laufenden System nicht wollte, habe ich KNOPPIX 5.3 gebootet und diese Operation da
ausgeführt. Das lief auch ohne Fehlermeldung durch, fdisk zeigte mir das /dev/md1 auch
mit der neuen Größe korrekt an. Das LVM lies sich auch in KNOPPIX starten und das
testweise mounten der Volumes klappte auch.
Nur der anschließende Start des eigentlichen Systems schlug fail, da das RAID5 und somit
auch das LVM nicht mehr gestartet werden konnte.
Habe dann nochmals KNOPPIX gebootet, da konnte ich das RAID5 auch nicht mehr korrekt
starten, das LVM startete mit Fehler aber die Volumes konnte ich noch sehen aber nicht
mehr mounten.
Habe dann das Rettungssystem der 11.1 gestartet, der kann natürlich auch nicht mehr das
RAID5 starten, wohingegen das RAID1 korrekt gestartet wird.
Beim Start kommt es hierbei zu folgenden (Fehler-)Meldungen:
# mdadm --assemble -v --force /dev/md1 /dev/sda2 /dev/sdb3 /dev/sdc3
mdadm: looking for devices for /dev/md1
mdadm: /dev/sda2 is identified as a member of /dev/md/1, slot 0.
mdadm: /dev/sdb3 is identified as a member of /dev/md/1, slot 2.
mdadm: /dev/sdc3 is identified as a member of /dev/md/1, slot 1.
mdadm: added /dev/sdc3 to /dev/md/1 as 1
mdadm: added /dev/sdb3 to /dev/md/1 as 2
mdadm: added /dev/sda2 to /dev/md/1 as 0
mdadm: failed to RUN_ARRAY /dev/md/1: Input/output error
In /var/log/messages steht dann
May 31 11:16:35 Rescue kernel: md: bind<sdc3>
May 31 11:16:35 Rescue kernel: md: bind<sdb3>
May 31 11:16:35 Rescue kernel: md: bind<sda2>
May 31 11:16:35 Rescue kernel: raid5: device sda2 operational as raid disk 0
May 31 11:16:35 Rescue kernel: raid5: device sdb3 operational as raid disk 2
May 31 11:16:35 Rescue kernel: raid5: device sdc3 operational as raid disk 1
May 31 11:16:35 Rescue kernel: raid5: allocated 3176kB for md1
May 31 11:16:35 Rescue kernel: raid5: raid level 5 set md1 active with 3 out of 3
devices, algorithm 0
May 31 11:16:35 Rescue kernel: RAID5 conf printout:
May 31 11:16:35 Rescue kernel: --- rd:3 wd:3
May 31 11:16:35 Rescue kernel: disk 0, o:1, dev:sda2
May 31 11:16:35 Rescue kernel: disk 1, o:1, dev:sdc3
May 31 11:16:35 Rescue kernel: disk 2, o:1, dev:sdb3
May 31 11:16:35 Rescue kernel: attempt to access beyond end of device
May 31 11:16:35 Rescue kernel: sda2: rw=8, want=1464613923, limit=1464613920
May 31 11:16:35 Rescue kernel: attempt to access beyond end of device
May 31 11:16:35 Rescue kernel: sdb3: rw=8, want=1464613923, limit=1464613920
May 31 11:16:35 Rescue kernel: attempt to access beyond end of device
May 31 11:16:35 Rescue kernel: sdc3: rw=8, want=1464613923, limit=1464613920
May 31 11:16:35 Rescue kernel: md1: bitmap initialisation failed: -5
May 31 11:16:35 Rescue kernel: md1: failed to create bitmap (-5)
Ein
# mdadm --detail /dev/md1 spuckt aus
/dev/md1:
Version : 1.00
Creation Time : Wed May 27 18:20:08 2009
Raid Level : raid5
Used Dev Size : 732306816 (698.38 GiB 749.88 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sat May 30 16:47:05 2009
State : active, Not Started
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-asymmetric
Chunk Size : 128K
Name : 1
UUID : b90c1a32:a7ceb166:2004618a:dc8b44cf
Events : 32502
Number Major Minor RaidDevice State
4 8 2 0 active sync /dev/sda2
5 8 35 1 active sync /dev/sdc3
3 8 19 2 active sync /dev/sdb3
Es erscheint mir offensichtlich, dass ewas mit dem Vergrößern nicht geklappt hat, da er
über das Ende hinaus zugreifen will.
Die Frage stellt sich jetzt, ist da noch etwas zu Reparieren? In Netz konnte ich bei
meiner Suche leider kein vergleichbares Fehlerszenario finden.
Weis jemand Rat?
Ich brauche ja wohl nicht zu erwähnen dass da eine Menge Daten drauf sind die ich
eigentlich wieder haben möchte. Zwar habe ich komplette Backups des Systems auf Band aber
halt nicht die wirklich großen Sachen wie Virtuelle Maschinen, Videos, iSCSI Laufwerke
Vielen Dank für Antworten schon im voraus
Gruß Manfred
ps
Euch allen frohe Pfingsten