Hallo,
Titel dieses Threads hört sich vielleicht merkwürdig an ... aber das Raid sieht auch so aus.
Hatte mir selbst die zweite Platte des Raid1´s "zerschossen" (nicht nachfragen wie... es ist so) und daher zunächst das Raid nur mit einer Platte am Laufen.
Gestern nun die zweite Platte formatiert (XFS, da nicht mehr mountbar) und mit
reingehängt.
Anschliessend hat mdadm automatisch angefangen zu syncronisieren.
Nach 10 Stunden dann :
Ausgabe von
Sieht gut aus ...
Dann Ausgabe von
Sieht doch auch noch gut aus ...
Aber jetzt
Sieht aber gar nicht mehr gut aus ...
Einträge in der
Was ist da schiefgelaufen ?
Warum ist die Anzahl die "Events" so hoch (physische Defekte kann ich ausschliessen) und warum kommen die Fehlermeldungen bzgl. der Slots ?
Bin für Tipps & Hinweise dankbar und liefere bei Bedarf gerne noch weitere Infos.
Titel dieses Threads hört sich vielleicht merkwürdig an ... aber das Raid sieht auch so aus.
Hatte mir selbst die zweite Platte des Raid1´s "zerschossen" (nicht nachfragen wie... es ist so) und daher zunächst das Raid nur mit einer Platte am Laufen.
Gestern nun die zweite Platte formatiert (XFS, da nicht mehr mountbar) und mit
Code:
# mdadm /dev/md0 -a /dev/sdb1
Anschliessend hat mdadm automatisch angefangen zu syncronisieren.
Nach 10 Stunden dann :
Ausgabe von
# cat /proc/mdadm
Personalities : [raid1] [raid0] [raid6] [raid5] [raid4]
md0 : active raid1 sdb1[2] sda1[0]
976759864 blocks super 1.0 [2/2] [UU]
bitmap: 11/466 pages [44KB], 1024KB chunk
unused devices: <none>
Sieht gut aus ...
Dann Ausgabe von
# mdadm --detail /dev/md0
/dev/md0:
Version : 01.00.03
Creation Time : Thu Nov 13 14:24:12 2008
Raid Level : raid1
Array Size : 976759864 (931.51 GiB 1000.20 GB)
Used Dev Size : 1953519728 (1863.02 GiB 2000.40 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Apr 1 09:33:01 2009
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : 0
UUID : 87477f89:6bb19b23:9bbe7e7b:f9587d87
Events : 451210
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
2 8 17 1 active sync /dev/sdb1
Sieht doch auch noch gut aus ...
Aber jetzt
# mdadm --examine /dev/sda1 /dev/sdb1
/dev/sda1:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 87477f89:6bb19b23:9bbe7e7b:f9587d87
Name : 0
Creation Time : Thu Nov 13 14:24:12 2008
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953519728 (931.51 GiB 1000.20 GB)
Array Size : 1953519728 (931.51 GiB 1000.20 GB)
Super Offset : 1953519984 sectors
State : clean
Device UUID : a7247a6b:06393ffc:a9ce580e:956b980d
Internal Bitmap : -234 sectors from superblock
Update Time : Wed Apr 1 09:48:45 2009
Checksum : cd312bfc - correct
Events : 451210
Array Slot : 0 (0, failed, 1)
Array State : Uu 1 failed
/dev/sdb1:
Magic : a92b4efc
Version : 1.0
Feature Map : 0x1
Array UUID : 87477f89:6bb19b23:9bbe7e7b:f9587d87
Name : 0
Creation Time : Thu Nov 13 14:24:12 2008
Raid Level : raid1
Raid Devices : 2
Avail Dev Size : 1953519728 (931.51 GiB 1000.20 GB)
Array Size : 1953519728 (931.51 GiB 1000.20 GB)
Super Offset : 1953519984 sectors
State : active
Device UUID : 782abdb8:a10713e0:36aeb100:01309a5a
Internal Bitmap : -234 sectors from superblock
Update Time : Wed Apr 1 09:48:46 2009
Checksum : 3da2a45e - correct
Events : 451211
Array Slot : 2 (0, failed, 1)
Array State : uU 1 failed
Sieht aber gar nicht mehr gut aus ...
Einträge in der
/etc/mdadm.conf
DEVICE partitions
ARRAY /dev/md0 level=raid1 UUID=87477f89:6bb19b23:9bbe7e7b:f9587d87
MAILADDR xxxxx@xxxxxxx
Was ist da schiefgelaufen ?
Warum ist die Anzahl die "Events" so hoch (physische Defekte kann ich ausschliessen) und warum kommen die Fehlermeldungen bzgl. der Slots ?
Bin für Tipps & Hinweise dankbar und liefere bei Bedarf gerne noch weitere Infos.