• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

SW-Raid mit städigen Updates des Superblocks

Traceman

Newbie
Hallo,

auf meinen RAID-Platten erfolgt ein ständiger Zugriff im Sekunden-Takt, der Zietstempel im Superblock (mdadm -E ...) ist immer die aktuelle Zeit, wenn das RAID im Status "clean". Der Eventcounter erhöht sich nicht.

Durch setzten des RO-Modus sind diese Zugriffe vorbei, jedoch ist das keine Lösung.
Diese ständigen Zugriffe lassen die Platten nicht schlafen. Ein Dateisystem ist nicht aktiv.

Wo kann ich diese ständigen Updates ausschalten?

Kernel ist 2.6.32
 

spoensche

Moderator
Teammitglied
Traceman schrieb:
Hallo,

auf meinen RAID-Platten erfolgt ein ständiger Zugriff im Sekunden-Takt, der Zietstempel im Superblock (mdadm -E ...) ist immer die aktuelle Zeit, wenn das RAID im Status "clean". Der Eventcounter erhöht sich nicht.

Wie sollen, ohne Zugriff, die Daten den von der Platte gelesen oder auf diese geschrieben werden?

Traceman schrieb:
Durch setzten des RO-Modus sind diese Zugriffe vorbei, jedoch ist das keine Lösung.
Diese ständigen Zugriffe lassen die Platten nicht schlafen. Ein Dateisystem ist nicht aktiv.

Ohne Dateisystem kannst du auch keinen Read-Only (RO) Modus setzen, weil man Partitionen ohne Dateisystem nicht mounten kann.

Du müsstest mal mehr Informationen rausrücken.
 
OP
T

Traceman

Newbie
spoensche schrieb:
Wie sollen, ohne Zugriff, die Daten den von der Platte gelesen oder auf diese geschrieben werden?

Das ist doch mein Problem, nur das Zusammenfügen des RAIDs (mdadm -A ...) erfolgen (Schreib-)Zugriffe auf die Platten, wobei die Superblöcke aktualisiert werden (ständig neue "Update Time" und "Checksum")

spoensche schrieb:
Ohne Dateisystem kannst du auch keinen Read-Only (RO) Modus setzen, weil man Partitionen ohne Dateisystem nicht mounten kann.

Ein SW-RAID kann in RW-Modus (mdadm -w /dev/mdx) oder im RO-Modus (mdadm -o /dev/mdx) gesetzt werden. Dies ist unabhängig von einem Dateisystem.

Meine Beobachtungen mache ich absichtlich ohne Dateisystem, da hier auch noch ein paar Probleme kommen können ...
 

spoensche

Moderator
Teammitglied
Code:
mdadm -A
bildet das RAID bzw. synchronisiert es und dabei werden die RAID Informationen aktualisiert, was völlig normal ist. Was genau willst du damit bezwecken?

Poste mal die Ausgabe von
Code:
mdstat

Du müsstest uns mal mitteilen, wo genau das Problem liegt und mehr Informationen geben. So kann dir keiner helfen.
 
OP
T

Traceman

Newbie
spoensche schrieb:
Code:
mdadm -A
bildet das RAID bzw. synchronisiert es und dabei werden die RAID Informationen aktualisiert, was völlig normal ist. Was genau willst du damit bezwecken?

Einmal ist ja normal, aber nicht jede Sekunde ...

Du müsstest uns mal mitteilen, wo genau das Problem liegt und mehr Informationen geben. So kann dir keiner helfen.

Ich habe es mal versucht zusammenzufassen ...
Code:
+ mdadm -E /dev/sda2
          Magic : a92b4efc
        Version : 0.90.00
           UUID : cd903113:ee0be2d6:c0f1a877:293df93c (local to host testi3)
  Creation Time : Thu Feb 24 22:46:13 2011
     Raid Level : raid6
  Used Dev Size : 1048512 (1024.11 MiB 1073.68 MB)
     Array Size : 3145536 (3.00 GiB 3.22 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 6

    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : e9d838c0 - correct
         Events : 289

     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0     253       14        0      active sync   /dev/sda2

   0     0     253       14        0      active sync   /dev/sda2
   1     1     253       15        1      active sync   /dev/sdb2
   2     2     253       16        2      active sync   /dev/sdc2
   3     3     253       17        3      active sync   /dev/sdd2
   4     4     253       18        4      active sync   /dev/sde2
+ mdadm -E /dev/sdb2
          Magic : a92b4efc
        Version : 0.90.00
           UUID : cd903113:ee0be2d6:c0f1a877:293df93c (local to host testi3)
  Creation Time : Thu Feb 24 22:46:13 2011
     Raid Level : raid6
  Used Dev Size : 1048512 (1024.11 MiB 1073.68 MB)
     Array Size : 3145536 (3.00 GiB 3.22 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 6

    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : e9d838c3 - correct
         Events : 289

     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1     253       15        1      active sync   /dev/sdb2

   0     0     253       14        0      active sync   /dev/sda2
   1     1     253       15        1      active sync   /dev/sdb2
   2     2     253       16        2      active sync   /dev/sdc2
   3     3     253       17        3      active sync   /dev/sdd2
   4     4     253       18        4      active sync   /dev/sde2
+ mdadm -E /dev/sdc2
          Magic : a92b4efc
        Version : 0.90.00
           UUID : cd903113:ee0be2d6:c0f1a877:293df93c (local to host testi3)
  Creation Time : Thu Feb 24 22:46:13 2011
     Raid Level : raid6
  Used Dev Size : 1048512 (1024.11 MiB 1073.68 MB)
     Array Size : 3145536 (3.00 GiB 3.22 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 6

    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : e9d838c6 - correct
         Events : 289

     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2     253       16        2      active sync   /dev/sdc2

   0     0     253       14        0      active sync   /dev/sda2
   1     1     253       15        1      active sync   /dev/sdb2
   2     2     253       16        2      active sync   /dev/sdc2
   3     3     253       17        3      active sync   /dev/sdd2
   4     4     253       18        4      active sync   /dev/sde2
+ mdadm -E /dev/sdd2
          Magic : a92b4efc
        Version : 0.90.00
           UUID : cd903113:ee0be2d6:c0f1a877:293df93c (local to host testi3)
  Creation Time : Thu Feb 24 22:46:13 2011
     Raid Level : raid6
  Used Dev Size : 1048512 (1024.11 MiB 1073.68 MB)
     Array Size : 3145536 (3.00 GiB 3.22 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 6

    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : e9d838c9 - correct
         Events : 289

     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3     253       17        3      active sync   /dev/sdd2

   0     0     253       14        0      active sync   /dev/sda2
   1     1     253       15        1      active sync   /dev/sdb2
   2     2     253       16        2      active sync   /dev/sdc2
   3     3     253       17        3      active sync   /dev/sdd2
   4     4     253       18        4      active sync   /dev/sde2
+ mdadm -E /dev/sde2
          Magic : a92b4efc
        Version : 0.90.00
           UUID : cd903113:ee0be2d6:c0f1a877:293df93c (local to host testi3)
  Creation Time : Thu Feb 24 22:46:13 2011
     Raid Level : raid6
  Used Dev Size : 1048512 (1024.11 MiB 1073.68 MB)
     Array Size : 3145536 (3.00 GiB 3.22 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 6

    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0
       Checksum : e9d838cc - correct
         Events : 289

     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     4     253       18        4      active sync   /dev/sde2

   0     0     253       14        0      active sync   /dev/sda2
   1     1     253       15        1      active sync   /dev/sdb2
   2     2     253       16        2      active sync   /dev/sdc2
   3     3     253       17        3      active sync   /dev/sdd2
   4     4     253       18        4      active sync   /dev/sde2
+ mdadm -A -c /etc/mdadm.conf /dev/md6
mdadm: /dev/md6 has been started with 5 drives.
+ sleep 1
+ mdadm -o /dev/md6
+ mdadm -D /dev/md6
        Version : 0.90
  Creation Time : Thu Feb 24 22:46:13 2011
     Raid Level : raid6
     Array Size : 3145536 (3.00 GiB 3.22 GB)
  Used Dev Size : 1048512 (1024.11 MiB 1073.68 MB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 6
    Persistence : Superblock is persistent

    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : cd903113:ee0be2d6:c0f1a877:293df93c (local to host testi3)
         Events : 0.289

    Number   Major   Minor   RaidDevice State
       0     253       14        0      active sync   /dev/sda2
       1     253       15        1      active sync   /dev/sdb2
       2     253       16        2      active sync   /dev/sdc2
       3     253       17        3      active sync   /dev/sdd2
       4     253       18        4      active sync   /dev/sde2
+ sleep 10
+ mdadm -D /dev/md6
        Version : 0.90
  Creation Time : Thu Feb 24 22:46:13 2011
     Raid Level : raid6
     Array Size : 3145536 (3.00 GiB 3.22 GB)
  Used Dev Size : 1048512 (1024.11 MiB 1073.68 MB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 6
    Persistence : Superblock is persistent

    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
 Active Devices : 5
Working Devices : 5
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : cd903113:ee0be2d6:c0f1a877:293df93c (local to host testi3)
         Events : 0.289

    Number   Major   Minor   RaidDevice State
       0     253       14        0      active sync   /dev/sda2
       1     253       15        1      active sync   /dev/sdb2
       2     253       16        2      active sync   /dev/sdc2
       3     253       17        3      active sync   /dev/sdd2
       4     253       18        4      active sync   /dev/sde2
+ mdadm -w /dev/md6

/dev/md6
    Update Time : Sat Feb 26 20:50:21 2011
          State : clean
         Events : 0.289
/dev/sda2
    Update Time : Sat Feb 26 22:08:33 2011
          State : clean
       Checksum : e9d84b18 - correct
         Events : 291
/dev/sdb2
    Update Time : Sat Feb 26 22:08:33 2011
          State : clean
       Checksum : e9d84b1b - correct
         Events : 291
/dev/sdc2
    Update Time : Sat Feb 26 22:08:33 2011
          State : clean
       Checksum : e9d84b1e - correct
         Events : 291
/dev/sdd2
    Update Time : Sat Feb 26 22:08:33 2011
          State : clean
       Checksum : e9d84b21 - correct
         Events : 291
/dev/sde2
    Update Time : Sat Feb 26 22:08:33 2011
          State : clean
       Checksum : e9d84b24 - correct
         Events : 291
+ sleep 1

    Update Time : Sat Feb 26 22:08:33 2011
          State : clean
         Events : 0.291
    Update Time : Sat Feb 26 22:08:34 2011
          State : clean
       Checksum : e9d84b1d - correct
         Events : 293
    Update Time : Sat Feb 26 22:08:34 2011
          State : clean
       Checksum : e9d84b20 - correct
         Events : 293
    Update Time : Sat Feb 26 22:08:34 2011
          State : clean
       Checksum : e9d84b23 - correct
         Events : 293
    Update Time : Sat Feb 26 22:08:34 2011
          State : clean
       Checksum : e9d84b26 - correct
         Events : 293
    Update Time : Sat Feb 26 22:08:34 2011
          State : clean
       Checksum : e9d84b29 - correct
         Events : 293
+ sleep 1

    Update Time : Sat Feb 26 22:08:34 2011
          State : clean
         Events : 0.293
    Update Time : Sat Feb 26 22:08:35 2011
          State : clean
       Checksum : e9d84b22 - correct
         Events : 295
    Update Time : Sat Feb 26 22:08:35 2011
          State : clean
       Checksum : e9d84b25 - correct
         Events : 295
    Update Time : Sat Feb 26 22:08:35 2011
          State : clean
       Checksum : e9d84b28 - correct
         Events : 295
    Update Time : Sat Feb 26 22:08:35 2011
          State : clean
       Checksum : e9d84b2b - correct
         Events : 295
    Update Time : Sat Feb 26 22:08:35 2011
          State : clean
       Checksum : e9d84b2e - correct
         Events : 295
+ sleep 1

    Update Time : Sat Feb 26 22:08:35 2011
          State : clean
         Events : 0.295
    Update Time : Sat Feb 26 22:08:37 2011
          State : clean
       Checksum : e9d84b28 - correct
         Events : 297
    Update Time : Sat Feb 26 22:08:37 2011
          State : clean
       Checksum : e9d84b2b - correct
         Events : 297
    Update Time : Sat Feb 26 22:08:37 2011
          State : clean
       Checksum : e9d84b2e - correct
         Events : 297
    Update Time : Sat Feb 26 22:08:37 2011
          State : clean
       Checksum : e9d84b31 - correct
         Events : 297
    Update Time : Sat Feb 26 22:08:37 2011
          State : clean
       Checksum : e9d84b34 - correct
         Events : 297
+ sleep 1

    Update Time : Sat Feb 26 22:08:37 2011
          State : clean
         Events : 0.297
    Update Time : Sat Feb 26 22:08:38 2011
          State : clean
       Checksum : e9d84b2d - correct
         Events : 299
    Update Time : Sat Feb 26 22:08:38 2011
          State : clean
       Checksum : e9d84b30 - correct
         Events : 299
    Update Time : Sat Feb 26 22:08:38 2011
          State : clean
       Checksum : e9d84b33 - correct
         Events : 299
    Update Time : Sat Feb 26 22:08:38 2011
          State : clean
       Checksum : e9d84b36 - correct
         Events : 299
    Update Time : Sat Feb 26 22:08:38 2011
          State : clean
       Checksum : e9d84b39 - correct
         Events : 299
+ sleep 1

    Update Time : Sat Feb 26 22:08:38 2011
          State : clean
         Events : 0.299
    Update Time : Sat Feb 26 22:08:39 2011
          State : clean
       Checksum : e9d84b32 - correct
         Events : 301
    Update Time : Sat Feb 26 22:08:39 2011
          State : clean
       Checksum : e9d84b35 - correct
         Events : 301
    Update Time : Sat Feb 26 22:08:39 2011
          State : clean
       Checksum : e9d84b38 - correct
         Events : 301
    Update Time : Sat Feb 26 22:08:39 2011
          State : clean
       Checksum : e9d84b3b - correct
         Events : 301
    Update Time : Sat Feb 26 22:08:39 2011
          State : clean
       Checksum : e9d84b3e - correct
         Events : 301
+ sleep 1

    Update Time : Sat Feb 26 22:08:39 2011
          State : clean
         Events : 0.301
    Update Time : Sat Feb 26 22:08:41 2011
          State : clean
       Checksum : e9d84b38 - correct
         Events : 303
    Update Time : Sat Feb 26 22:08:41 2011
          State : clean
       Checksum : e9d84b3b - correct
         Events : 303
    Update Time : Sat Feb 26 22:08:41 2011
          State : clean
       Checksum : e9d84b3e - correct
         Events : 303
    Update Time : Sat Feb 26 22:08:41 2011
          State : clean
       Checksum : e9d84b41 - correct
         Events : 303
    Update Time : Sat Feb 26 22:08:41 2011
          State : clean
       Checksum : e9d84b44 - correct
         Events : 303
+ sleep 1

    Update Time : Sat Feb 26 22:08:41 2011
          State : clean
         Events : 0.303
    Update Time : Sat Feb 26 22:08:42 2011
          State : clean
       Checksum : e9d84b3d - correct
         Events : 305
    Update Time : Sat Feb 26 22:08:42 2011
          State : clean
       Checksum : e9d84b40 - correct
         Events : 305
    Update Time : Sat Feb 26 22:08:42 2011
          State : clean
       Checksum : e9d84b43 - correct
         Events : 305
    Update Time : Sat Feb 26 22:08:42 2011
          State : clean
       Checksum : e9d84b46 - correct
         Events : 305
    Update Time : Sat Feb 26 22:08:42 2011
          State : clean
       Checksum : e9d84b49 - correct
         Events : 305
+ sleep 1

    Update Time : Sat Feb 26 22:08:42 2011
          State : clean
         Events : 0.305
    Update Time : Sat Feb 26 22:08:43 2011
          State : clean
       Checksum : e9d84b42 - correct
         Events : 307
    Update Time : Sat Feb 26 22:08:43 2011
          State : clean
       Checksum : e9d84b45 - correct
         Events : 307
    Update Time : Sat Feb 26 22:08:43 2011
          State : clean
       Checksum : e9d84b48 - correct
         Events : 307
    Update Time : Sat Feb 26 22:08:43 2011
          State : clean
       Checksum : e9d84b4b - correct
         Events : 307
    Update Time : Sat Feb 26 22:08:43 2011
          State : clean
       Checksum : e9d84b4e - correct
         Events : 307

...

+ mdadm -S /dev/md6
mdadm: stopped /dev/md6
+ mdadm -E /dev/sda2
    Update Time : Sat Feb 26 22:08:58 2011
          State : clean
       Checksum : e9d84b7d - correct
         Events : 329
+ mdadm -E /dev/sdb2
    Update Time : Sat Feb 26 22:08:58 2011
          State : clean
       Checksum : e9d84b80 - correct
         Events : 329
+ mdadm -E /dev/sdc2
    Update Time : Sat Feb 26 22:08:58 2011
          State : clean
       Checksum : e9d84b83 - correct
         Events : 329
+ mdadm -E /dev/sdd2
    Update Time : Sat Feb 26 22:08:58 2011
          State : clean
       Checksum : e9d84b86 - correct
         Events : 329
+ mdadm -E /dev/sde2
    Update Time : Sat Feb 26 22:08:58 2011
          State : clean
       Checksum : e9d84b89 - correct
         Events : 329

das RAID wird zusammengeführt, und in den RO-Modus geschickt, nach 10 Sekunden hat sich keine Veränderung ergeben.
Nun wurde das RAID 30 Sekunden im RW-Modus beobachtet.
Alle diese Tests sind ohne Dateisystem!
 

spoensche

Moderator
Teammitglied
Du wendest den mdadm Befehl auf die Gerätedateien der jeweiligen Partitionen (/dev/sda1 ..) an und daher wird weder das RAID zusammengeführt oder in den RO bzw. RW Modus gesetzt und auch kein einziges mdadm Komando funktionieren. Das RAID hat eigene Gerätedateien (/dev/md0 etc.)

Lesen:
Code:
man 8 mdadm
 
OP
T

Traceman

Newbie
spoensche schrieb:
Du wendest den mdadm Befehl auf die Gerätedateien der jeweiligen Partitionen (/dev/sda2 ..) an

Woauf den sonst bei dem Befehl "mdadm -E ..." ?

Ich wollte damit doch nur zeigen, daß nicht nur die "Update Time" des RAIDs (mdadm -D /dev/mdX) sondern auch die "Update Time" auf den Platten im Sekundenabstand neu gesetzt werden.

Alle Platten blicken ohne andere Aktivität jede Sekunde ...
 
OP
T

Traceman

Newbie
spoensche schrieb:
http://tldp.org/HOWTO/Software-RAID-HOWTO.html

Was macht dann die Zeile "mdadm: /dev/md6 has been started with 5 drives." in der Ausgabe oben?

Ich arbeite schon seit vielen Jahren mit SW-RAIDs, das ist nicht etwa das 20. welches ich einrichte. Nur bei alle anderen gehen die Platten in den Schalfmodus und werden von dem Kernel nicht ständig beschrieben.

Ich hab jetzt erst mal safe_mode_delay sehr hoch gesetzt, so daß nicht ständig dieses Update auftritt...
 

spoensche

Moderator
Teammitglied
Traceman schrieb:
spoensche schrieb:
http://tldp.org/HOWTO/Software-RAID-HOWTO.html

Was macht dann die Zeile "mdadm: /dev/md6 has been started with 5 drives." in der Ausgabe oben?

Das RAIID Geräte /dev/md6 ist gestartet worden und besteht aus 5 Partitionen bzw. 5 Laufwerken.

Traceman schrieb:
Ich arbeite schon seit vielen Jahren mit SW-RAIDs, das ist nicht etwa das 20. welches ich einrichte. Nur bei alle anderen gehen die Platten in den Schalfmodus und werden von dem Kernel nicht ständig beschrieben.

Dan müsstest du ja wissen, dass man mdadm nicht auf einzelne Partitionen anwenden kann. Der Kernel ist nicht für das Beschreiben verantwortlich.

Überprüfe mal deine Powersafe Konfiguration.
 
OP
T

Traceman

Newbie
spoensche schrieb:
Dan müsstest du ja wissen, dass man mdadm nicht auf einzelne Partitionen anwenden kann. Der Kernel ist nicht für das Beschreiben verantwortlich.

und was ist dann das Modul "raid456", wenn nicht Bestandteil des Kernels. Und dieses Modul ist für die ständige Aktuallisierung der "Update Time" des RAIDs verantwortlich. Deshalb habe ich doch extra geschrieben: Ohne Dateisystem!

spoensche schrieb:
Überprüfe mal deine Powersafe Konfiguration.

Wenn die Platten jede Sekunde einen Schreibbefehl bekommen, wie sollen sie sich dann schlafen legen?
 

spoensche

Moderator
Teammitglied
Poste mal deine /etc/mdadm.conf. Schon mal daran gedacht, das RAID 6 zwei Platten bzw. Partitionen für Paritätsinformationen verwendet und diese regelmäßig abgeglichen werden müssen? Mal abgesehen davon das RAID 6, beim Schreiben, noch viel langsamer ist als RAID 5.
 
OP
T

Traceman

Newbie
spoensche schrieb:
Poste mal deine /etc/mdadm.conf.

Code:
ARRAY /dev/md6 level=raid6 num-devices=5 UUID=cd903113:ee0be2d6:c0f1a877:293df93c

Schon mal daran gedacht, das RAID 6 zwei Platten bzw. Partitionen für Paritätsinformationen verwendet und diese regelmäßig abgeglichen werden müssen? Mal abgesehen davon das RAID 6, beim Schreiben, noch viel langsamer ist als RAID 5.

Was soll den diese Aussage? Die Prüfdaten werden bei einem Schreibvorgang berechnet und dann nur auf Anfrage (echo "check" >/sys/block/md6/md/sync_action) geprüft.

Wie schon gesagt, es ist nicht mein erstes RAID, ebenfalls ein RAID6 unter einem älteren Debian (Kernel 2.6.30) ist alles prima. Die Platten gehen nach ihrer eingestellten Zeit in den Schalfmodus und wachen bei Zugriff auch wieder auf.

Nur bei diesem neuen RAID geht das nicht mehr, also was ist seit der 2.6.30 anders und wie kann ich das Verhalten des alten Kernels wieder aktivieren?
 
OP
T

Traceman

Newbie
spoensche schrieb:
Die vollständige mdadm.conf ist nötig.

Das ist die vollständige mdadm.conf. Mehr ist da nicht. Das RAID wird nicht durch den mdadm-Monitor überwacht, dazu gibt es ein anderes (z.Z. nicht für dieses RAID aktives) zentrales Monitorprogramm.
 

spoensche

Moderator
Teammitglied
Traceman schrieb:
Das ist die vollständige mdadm.conf. Mehr ist da nicht. Das RAID wird nicht durch den mdadm-Monitor überwacht, dazu gibt es ein anderes (z.Z. nicht für dieses RAID aktives) zentrales Monitorprogramm.

Monitoren bzw. überwachen ist was anderes als die Konfigurationsdatei mdadm.conf, die für die Konfiguration des RAID´s notwendig ist. Woher soll mdadm den wissen, welche Partitionen bzw. Platten für das RAID verwendet werden sollen, wenn keine in der Konfiguration angegeben sind?

Arbeite mal die Links durch, die ich dir an die Hand gegeben habe und überprüfe deine Konfiguration.
 
OP
T

Traceman

Newbie
spoensche schrieb:
Woher soll mdadm den wissen, welche Partitionen bzw. Platten für das RAID verwendet werden sollen, wenn keine in der Konfiguration angegeben sind?

Führe einfach mal den Befehl "blkid" aus. Die UUID wird seit 100 Jahren für die Erkennung der Partionen verwendet, da die Gerätebezeichnungen sich ja ändern können.
 

spoensche

Moderator
Teammitglied
Traceman schrieb:
Die UUID wird seit 100 Jahren für die Erkennung der Partionen verwendet, da die Gerätebezeichnungen sich ja ändern können.

Das ist die UUID des RAID Devices /dev/md6. Das kannst du aber nicht wissen, weil es für dich unzumutbar und zu aufwändig ist einen Blick in die Doku zu werfen und Eigeninitiative an den Tag zu legen.
 
OP
T

Traceman

Newbie
spoensche schrieb:
Das ist die UUID des RAID Devices /dev/md6.

Was den auch sonst? Bei "mdadm -A /dev/md6" werden alle verfügbaren Partionen nach der passenden UUID gescannt und das RAID zusammen gebaut.

Das kannst du aber nicht wissen, weil es für dich unzumutbar und zu aufwändig ist einen Blick in die Doku zu werfen und Eigeninitiative an den Tag zu legen.

Welcher Abschnitt dieser Anleitung enthält einen Hinweis auf die ständigen Schreibzugriffe auf die Platten?
Die Einstellbarkeit der Wartezeit zur Statusänderung nach (gewollten) Schreibzugriffen (safe_mode_delay) ist z.B. nicht in dieser Anleitung auch ein bisschen genannt.

Gib es doch endlich zu, daß Du auch keine Idee für mein eigentlichen Problem hast.
 

spoensche

Moderator
Teammitglied
Traceman schrieb:
Gib es doch endlich zu, daß Du auch keine Idee für mein eigentlichen Problem hast.

Wenn einem RAID-Array keine Devices zugewiesen werden, dann wird die Autodetection verwendet. Du hast 5 Devies für das RAID Array angegeben und damit mdadm weiss, welche Geräte zu dem Array gehören, schreibt er die Infos in den Superblock.
 
Oben