• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

Raid, Zuordnung der Platten zu den /dev/sd?

dax

Newbie
Hallo,
eine Platte die am ESATA hing und als /dev/sda eingebunden wurde hat sich verabschiedet.
Die weiteren Platten die bisher als /dev/sdb bis /dev/sde eingebunden wurden, werden jetzt als /dev/sda bis /dev/sdd eingebunden, so dass der RAID Verbund nicht mehr funktioniert.

Ist es möglich den Platten das Device fest zuzuordnen?

Gruß Dax
 
OP
D

dax

Newbie
Hallo,
es handelt sich um ein Software-Raid mit mdadm.

Auf dem Board ist zwar so ein "einfacher" Raid- Controller, der wurde aber nie benutzt.
Wenn damit ein Raid erstellt würde, sind dann noch alle Platten zu sehen oder bekommt man nur das Raid als eine Platte untergeschoben?

Gruß DAX
 

josef-wien

Ultimate Guru
Code:
cat /proc/mdstat
cat /etc/mdadm.conf
mdadm --detail --scan
Der 3. Befehl muß als root ausgeführt werden.

dax schrieb:
Auf dem Board ist zwar so ein "einfacher" Raid- Controller, der wurde aber nie benutzt.
Das ist auch gut so, das ist mit ziemlicher Sicherheit ein Fake-RAID.
 
OP
D

dax

Newbie
Hallo,

so weit komme ich gar nicht da die root- Partition auch auf dem Raid liegt. Nach dem Starten kommt die Meldung

Code:
ERST: Can not request iomem region <0x 7feff000-0x>

Ich habe jetzt mal Knoppix verwendet, das Raid gestartet und mache eine Datensicherung. Die alte Sicherung ist ja hin.
Das Raid an sich ist also in Ordnung.


Gruß Dax
 
OP
D

dax

Newbie
Unter Knoppix kommen folgende Ausgaben

Code:
root@Microknoppix:/# cat /proc/mdstat
Personalities : [raid0] [raid1] 
md125 : active raid1 sda2[0] sdb2[2]
      200692 blocks super 1.0 [4/2] [U_U_]
      
md126 : active raid1 sdc2[1] sdd2[3]
      200692 blocks super 1.0 [4/2] [_U_U]
      
md127 : active raid0 sda3[0] sdd3[3] sdc3[2] sdb3[1]
      2921070560 blocks super 1.0 8k chunks
      
unused devices: <none>

Code:
root@Microknoppix:/mnt/root/etc# cat ./mdadm.conf 
DEVICE containers partitions
ARRAY /dev/md0 UUID=0d83d8fb:afafaa32:65a6de93:27d92cb4
ARRAY /dev/md1 UUID=fc5d706c:056dc71e:6028c690:a4f1257a

Code:
ARRAY /dev/md/linux:1 metadata=1.0 name=linux:1 UUID=fc5d706c:056dc71e:6028c690:a4f1257a
ARRAY /dev/md/localhost.localdomain:0 metadata=1.0 name=localhost.localdomain:0 UUID=0d83d8fb:afafaa32:65a6de93:27d92cb4
mdadm: cannot open /dev/md/localhost.localdomain:0_0: No such file or directory



Gruß Dax
 

spoensche

Moderator
Teammitglied
dax schrieb:
Code:
ERST: Can not request iomem region <0x 7feff000-0x>

Diese Meldung wird bei der Verarbeitung der ACPI ERST Tabelle erzeugt. Die Meldung bedeutet, dass der ACPI Interpreter nicht auf den Adressbereich
0x 7feff000-0x zugreifen kann. Entweder ist der Adressbereich fälschlicherweise durch das aktivieren bzw. deaktivieren einer Option im BIOS in die Tabelle eingetragen worden und der Adressbereich existiert überhaupt nicht.

dax schrieb:
Code:
md125 : active raid1 sda2[0] sdb2[2]
      200692 blocks super 1.0 [4/2] [U_U_]
     
md126 : active raid1 sdc2[1] sdd2[3]
      200692 blocks super 1.0 [4/2] [_U_U]

Bei diesen beiden RAID Devices fehlen 2 Partitionen der jeweiligen Festplatten und beide werden als Faulty markiert.

Es liegt also nahe, dass eine geänderte BIOS Option Auswirkung auf die Verfügbarkeit und Ansprechbarkeit einiger Platten hat. Wenn du im BIOS die Möglichkeit hast den SATA-Mode zu konfigurieren, dann setze ihn auf AHCI.

Danach sollten die fehlenden Platten wieder ansprechbar sein und auch automatisch wieder in das passende RAID integriert werden.
 
OP
D

dax

Newbie
Die vier Partitionen
Code:
 sda2[0] sdb2[2] sdc2[1] sdd2[3]
gehören zu einem Raid.
Es dürften nicht zwei sein.

Was hat
Code:
mdadm: cannot open /dev/md/localhost.localdomain:0_0: No such file or directory
zu sagen?

Ich werde die BIOS Einstellungen mal ändern.

Danke, Dax
 

spoensche

Moderator
Teammitglied
dax schrieb:
Die vier Partitionen
Code:
 sda2[0] sdb2[2] sdc2[1] sdd2[3]
gehören zu einem Raid.
Es dürften nicht zwei sein.

Wie alt ist das Knoppix? Für dein Knoppix sind es zwei RAIDS, daher auch die fehlenden Partitionen bei beiden RAID's. Also musst du auch im BIOS nichts umstellen.

dax schrieb:
Was hat
Code:
mdadm: cannot open /dev/md/localhost.localdomain:0_0: No such file or directory
zu sagen?

Das die Gerätedatei für dieses RAID-Device nicht existiert. Du hast in deiner mdadm.conf folgende RAID's konfiguriert:
dax schrieb:
Code:
DEVICE containers partitions
ARRAY /dev/md/linux:1 metadata=1.0 name=linux:1 UUID=fc5d706c:056dc71e:6028c690:a4f1257a
ARRAY /dev/md/localhost.localdomain:0 metadata=1.0 name=localhost.localdomain:0 UUID=0d83d8fb:afafaa32:65a6de93:27d92cb4
[/quote]

Es sind statt ein RAID- Device zwei Devices konfiguriert. Das zweite verwendet die Gerätedatei /dev/md/localhost.localdomain:0, die aber nicht existiert.

Deine Konfiguration ist also anders als gedacht.

Poste mal die Ausgabe von
Code:
mdadm -QD /dev/md126
 

josef-wien

Ultimate Guru
Die mdadm.conf gehört zum installierten System, nicht zu Knoppix. Es ist interessant, daß Knoppix zwei RAID1 und ein RAID0 erkennt, mdadm --detail --scan aber bei einem der drei eine Fehlermeldung erzeugt, worauf ich den Befehl auf
Code:
mdadm -D /dev/md125 /dev/md126 /dev/md127
erweitere.
 
OP
D

dax

Newbie
Hallo,
das Knoppix ist die Version 6.7. Ich werde mal ein neuers verwenden. Die Änderungen im BIOS haben nichts gebracht.

Wenn ich im Knoppix (jetzt 7.3) nach Raids suche werden nur zwei Angezeigt. Ich verstehe das so das auf den vorhandenen,
als Raid gekennzeichneten Partitionen, nur zwei Raids (Superblöcke) gefunden werden.
Code:
root@Microknoppix:/home/knoppix# mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.0 UUID=0d83d8fb:afafaa32:65a6de93:27d92cb4 name=localhost.localdomain:0
ARRAY /dev/md/1 metadata=1.0 UUID=fc5d706c:056dc71e:6028c690:a4f1257a name=linux:1

Beim starten der Raids kommt folgende Meldung, wobei die Fehlermeldungen beim alten Knoppix fehlten.
Code:
root@Microknoppix:/home/knoppix# mdadm --assemble --scan
mdadm: /dev/md/1 has been started with 4 drives.
mdadm: ignoring /dev/sda2 as it reports /dev/sdd2 as failed
mdadm: ignoring /dev/sdc2 as it reports /dev/sdd2 as failed
mdadm: /dev/md/0 has been started with 2 drives (out of 4).
mdadm: /dev/md/0_0 has been started with 2 drives (out of 4).

Hier die Ausgabe von mdadm -D mdadm -D /dev/md127 /dev/md/0 /dev/md/1.
Code:
root@Microknoppix:/home/knoppix# mdadm -D /dev/md127 /dev/md/0 /dev/md/1
/dev/md127:
        Version : 1.0
  Creation Time : Tue Nov 30 12:51:09 2010
     Raid Level : raid1
     Array Size : 200692 (196.02 MiB 205.51 MB)
  Used Dev Size : 200692 (196.02 MiB 205.51 MB)
   Raid Devices : 4
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Mon Dec  8 06:20:51 2014
          State : clean, degraded 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : localhost.localdomain:0
           UUID : 0d83d8fb:afafaa32:65a6de93:27d92cb4
         Events : 280

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       0        0        1      removed
       2       8       34        2      active sync   /dev/sdc2
       3       0        0        3      removed
/dev/md/0:
        Version : 1.0
  Creation Time : Tue Nov 30 12:51:09 2010
     Raid Level : raid1
     Array Size : 200692 (196.02 MiB 205.51 MB)
  Used Dev Size : 200692 (196.02 MiB 205.51 MB)
   Raid Devices : 4
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Mon Dec  8 06:20:51 2014
          State : clean, degraded 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : localhost.localdomain:0
           UUID : 0d83d8fb:afafaa32:65a6de93:27d92cb4
         Events : 280

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       0        0        1      removed
       2       8       34        2      active sync   /dev/sdc2
       3       0        0        3      removed
/dev/md/1:
        Version : 1.0
  Creation Time : Tue Nov 30 14:06:30 2010
     Raid Level : raid0
     Array Size : 2921070560 (2785.75 GiB 2991.18 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Nov 30 14:06:30 2010
          State : clean 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 8K

           Name : linux:1
           UUID : fc5d706c:056dc71e:6028c690:a4f1257a
         Events : 0

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       35        1      active sync   /dev/sdc3
       2       8       19        2      active sync   /dev/sdb3
       3       8       51        3      active sync   /dev/sdd3

Ich glaube hier ist schon länger was im Argen denn die Inhalte der beiden Raid 1 Device ist unterschiedlich.

Wie soll ich weiter vorgehen? Beide Raid 1 löschen, ein neues Raid 1 anlegen und anschließend den Bootloader neu einrichten?

Gruß Dax
 

josef-wien

Ultimate Guru
dax schrieb:
Beide Raid 1 löschen, ein neues Raid 1 anlegen und anschließend den Bootloader neu einrichten?
Es ist eventuell die bessere Lösung, da ich auf Grund der gleichlautenden UUID nicht vorhersehen kann, ob das Auflösen eines RAID1 und das Hinzufügen der beiden Partitionen zum bestehen bleibenden anderen RAID1 problemlos funktioniert (aber Du kannst es durchaus probieren, so schlecht schätze ich die Chancen nicht ein).

Denke bei einer Neuerstellung daran, die mdadm.conf zu aktualisieren und danach über chroot die initrd neu zu erstellen.
 
OP
D

dax

Newbie
Hallo,
das Raid ist wieder in Ordnung. Ich musste aber beide löschen und ein neues mit den vier Platten erstellen.
Anschließend noch mit ext2 formatiert.

Die mdadm.conf wurde aktualisiert und die initrd mit
Code:
mkinitrd
über chroot neu erstellt.

In der chroot habe ich auch noch den Bootloader mit
Code:
grub2-install /dev/sda
erneuert.

Leider bootet er noch nicht. Ich lande beim booten in einer Art Console von Grub. Damit muss ich mich noch beschäftigen.

Danke für eure Hilfe.

Gruß Dax
 

spoensche

Moderator
Teammitglied
dax schrieb:
Anschließend noch mit ext2 formatiert.

Ernsthaft mit ext2? :schockiert:

Dann gebe ich deinen Daten max. 2 Crashs und dann sind sie weg. Von Performance ganz zu schweigen.
Wie kommst du darauf, dass ein sehr altes Dateisystem ohne Journaling Funktionalität die beste Wahl ist?

Btrfs, ext4 oder xfs sind moderne Dateisysteme, mit Journaling Funktionalität. Btrfs ist so ähnlich wie ZFS (momentan, das non plus Ultra unter den FS) auf Solaris.

Mein Tipp: Btrfs, xfs oder ext4.
 
OP
D

dax

Newbie
Hallo spoensche,

ich habe ext2 verwendet da es schon vorher darauf war. Es handelt sich ja nur um eine Partition für /boot mit einer Größe von 250MB. Auf den restlichen Partitionen ist ext4 und reiserfs im Einsatz.
Als der Rechner eingerichtet wurde musste noch lilo verwendet werden, da grub nicht von als raid gekennzeichneten Platten oder raid booten konnte und lilo nur ext2 beherrschte, oder so ähnlich.
Ihr könnt mich aber gern berichtigen.

Meinst du ich soll die Partition für /boot auf ext4 umstellen? :???:

Weihnachtsgrüße DAX
 
Oben