• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

großes RAID (16TB) lässt sich nicht mounten

HBux

Newbie
Hallo,
Folgendes Problem unter Suse 13.2 ein 16TB großes RAID lässt sich weder mit Yast noch über die Shell mounten. Jedesmal mit der Meldung die Partition. sei zu groß. Ich habe das mit ext4 und mit XFS formatierten Partitionen versucht, kein Unterschied. 10TB läuft klaglos...
Wie bekomme ich das zum Laufen? Vielen Dank im Voraus!
 

marce

Guru
Mehr (und konkrete) Infos bitte.

"Es ist zu groß" ist sicherlich nicht die Fehlermeldung, die Du bei Deinem Befehl an der Konsole als Rückmeldung bekommst.
 
OP
H

HBux

Newbie
marce schrieb:
Mehr (und konkrete) Infos bitte.

"Es ist zu groß" ist sicherlich nicht die Fehlermeldung, die Du bei Deinem Befehl an der Konsole als Rückmeldung bekommst.
Entschuldige die vorauseilende Übersetzung. Die Originale Meldung ist:
"Mount /dev/md1 on /Backup failed: File too large"
Die Partition ist leer und frisch formatiert, Dolphin zeigt sie auch in der richtigen Größe an, nur einhängen geht eben auf keinem Weg :-(
 

gehrke

Administrator
Teammitglied
HBux schrieb:
"Mount /dev/md1 on /Backup failed: File too large"
Die Partition ist leer und frisch formatiert, Dolphin zeigt sie auch in der richtigen Größe an, nur einhängen geht eben auf keinem Weg :-(
Noch mehr Details bitte!

Aus dem oben geschriebenen kann ich gerade mal vermuten, dass Du von einem Linux Software Raid (mdadm) sprichst. Gib uns doch dafür mal bitte die Konfiguration und den exakten Status, beispielsweise so (als root):
Code:
lsblk
cat /etc/mdadm.conf
cat /proc/mdstat
mdadm -Evvvvs
Und der von dir verwendete mount-Befehl wäre auch noch interessant, nicht nur das Ergebnis.
TNX

Nachtrag: 16 TB ist interessanterweise die Obergrenze für ext3. Bist Du sicher, dass Du ext4 verwendest?
 
OP
H

HBux

Newbie
gehrke schrieb:
HBux schrieb:
"Mount /dev/md1 on /Backup failed: File too large"
Die Partition ist leer und frisch formatiert, Dolphin zeigt sie auch in der richtigen Größe an, nur einhängen geht eben auf keinem Weg :-(
Noch mehr Details bitte!

Aus dem oben geschriebenen kann ich gerade mal vermuten, dass Du von einem Linux Software Raid (mdadm) sprichst. Gib uns doch dafür mal bitte die Konfiguration und den exakten Status, beispielsweise so (als root):
Code:
lsblk
cat /etc/mdadm.conf
cat /proc/mdstat
mdadm -Evvvvs
Und der von dir verwendete mount-Befehl wäre auch noch interessant, nicht nur das Ergebnis.
TNX

Nachtrag: 16 TB ist interessanterweise die Obergrenze für ext3. Bist Du sicher, dass Du ext4 verwendest?

Also im Moment definitiv XFS
Meine Mountversuche waren mit YAST und "Mount /dev/md1 /backup" in der Bash.
Hier der aktuelle Zustand (ich habe gerade nochmal alle Platten geprüft, neu partitioniert und das Drama von vorn begonnen).
Das 10TB Raid ist als home eingehängt und Zugriffe und Streaming laufen - nur es sind nur noch 300GB frei. Und ehe ich kein 2. funktionierendes Backupsystem habe fange ich daran nicht zu basteln an, da sind 15 Jahre Foto- und Videoaufnahmen drauf und ich will Stargate, Big Bang Theory und ähnliche Schätze nicht verlieren...

Code:
cat /proc/mdstat      
Personalities : [raid6] [raid5] [raid4] [raid0] 
md0 : active raid0 sdl1[0] sdk1[1] sdm1[2]
      11721050016 blocks super 1.0 32k chunks
      
md1 : active raid6 sdi1[6] sdg1[4] sdd1[7] sde1[2] sdb1[0] sdh1[5] sdf1[3] sdc1[1]
      17581588992 blocks super 1.0 level 6, 128k chunk, algorithm 2 [8/8] [UUUUUUUU]
      [>....................]  resync =  2.9% (86652032/2930264832) finish=82742.6min speed=572K/sec
      bitmap: 22/22 pages [88KB], 65536KB chunk

unused devices: <none>

Code:
cat /etc/mdadm.conf
DEVICE containers partitions
ARRAY /dev/md/linux:0 UUID=ea1435f3:4df5589b:c45b57d4:dc6cd02c
ARRAY /dev/md1 UUID=2dd738bd:672865d7:537918de:6ea9e809

Code:
lsblk
NAME    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda       8:0    0 117.4G  0 disk  
├─sda1    8:1    0 100.4G  0 part  /
└─sda2    8:2    0    17G  0 part  [SWAP]
sdb       8:16   0   2.7T  0 disk  
└─sdb1    8:17   0   2.7T  0 part  
  └─md1   9:1    0  16.4T  0 raid6 
sdc       8:32   0   2.7T  0 disk  
└─sdc1    8:33   0   2.7T  0 part  
  └─md1   9:1    0  16.4T  0 raid6 
sdd       8:48   0   2.7T  0 disk  
└─sdd1    8:49   0   2.7T  0 part  
  └─md1   9:1    0  16.4T  0 raid6 
sde       8:64   0   2.7T  0 disk  
└─sde1    8:65   0   2.7T  0 part  
  └─md1   9:1    0  16.4T  0 raid6 
sdf       8:80   0   2.7T  0 disk  
└─sdf1    8:81   0   2.7T  0 part  
  └─md1   9:1    0  16.4T  0 raid6 
sdg       8:96   0   2.7T  0 disk  
└─sdg1    8:97   0   2.7T  0 part  
  └─md1   9:1    0  16.4T  0 raid6 
sdh       8:112  0   2.7T  0 disk  
└─sdh1    8:113  0   2.7T  0 part  
  └─md1   9:1    0  16.4T  0 raid6 
sdi       8:128  0   2.7T  0 disk  
└─sdi1    8:129  0   2.7T  0 part  
  â”
 

gehrke

Administrator
Teammitglied
@tomm.fa: TNX für die nachträgliche Formatierung.

HBux schrieb:
Meine Mountversuche waren mit YAST und "Mount /dev/md1 /backup" in der Bash.
Hier solltest Du mal versuchen, ein paar Informationen mehr herauszukitzeln:
Code:
mount -v /dev/md1 /backup

HBux schrieb:
Hier der aktuelle Zustand (ich habe gerade nochmal alle Platten geprüft, neu partitioniert und das Drama von vorn begonnen).
Das 10TB Raid ist als home eingehängt und Zugriffe und Streaming laufen - nur es sind nur noch 300GB frei. Und ehe ich kein 2. funktionierendes Backupsystem habe fange ich daran nicht zu basteln an, da sind 15 Jahre Foto- und Videoaufnahmen drauf und ich will Stargate, Big Bang Theory und ähnliche Schätze nicht verlieren...
Dass ein valides Backup bei solchen Arbeiten (eigentlich immer) notwendig ist, hast Du ja verinnerlicht. Mir erschließt sich jetzt aber nicht, ob Du da jetzt erstmal komplett blockieren willst (bis Du ein Backup angefertigt hast), oder ob Du das Problem jetzt angehen möchtest.

Wenn ich Dich richtig verstande habe, dann geht es Dir um /dev/md1:
HBux schrieb:
Code:
cat /proc/mdstat      
md1 : active raid6 sdi1[6] sdg1[4] sdd1[7] sde1[2] sdb1[0] sdh1[5] sdf1[3] sdc1[1]
      17581588992 blocks super 1.0 level 6, 128k chunk, algorithm 2 [8/8] [UUUUUUUU]
      [>....................]  resync =  2.9% (86652032/2930264832) finish=82742.6min speed=572K/sec
      bitmap: 22/22 pages [88KB], 65536KB chunk
Da scheint mir alles in Ordnung zu sein. Ein RAID6 aus 8 Devices, und alle sind online ('U'). Also hast Du doppelte Redundanz, das ist schon mal sehr gut.
Derzeit befindet sich das Teil in der 'resync'-Phase, vermutlich rattert und leuchtet da jetzt alles wild. Aber die Performance ist fragwürdig: der Vorgang wird bei 572K/sec noch satte 57 Tage (82742 Minuten) benötigen! Evtl. ist das nur ein kurzer Hänger bei diesem Snapshot gewesen, oder Irgendwas stimmt da nicht. Das würde ich mal im Auge behalten:
Code:
watch "cat /proc/mdstat"
Bei aktuellen Festplatten würde ich vermuten, dass dieser Prozess in 12 bis 24 Stunden durchlaufen sollte.

However, trotzdem sollte das RAID auch in dieser Phase voll funktionsfähig sein. Das sollte demnach nicht der Grund für Dein aktuelles Problem sein. Ich vermute, es liegt eher nicht am RAID. Habe übrigens selbst ein mdadm-RAID6 mit 11TB am Laufen, solche Probleme sind mir bislang unbekannt.

Also solltest Du da IMHO mal einen genaueren Blick auf das Dateisystem werfen.

Nachtrag: Die Formatierung für 'lsblk' ist scheinbar kaputt und 'mdadm -Evvvvs' fehlt komplett. Wo ist denn das RAID mit den 10T, welches Du unter /home eingehängt hast? Ist das /dev/md0???
 
OP
H

HBux

Newbie
Hallo,
zunächst mal zu meiner Backupstrategie, ich habe immer das als /Backup eingehängte RAID da läuft nachts mit rsync mein Tagesbackup, einmal in der Woche dann ein Backup auf ein externes Laufwerk welches ich auch benutze um die Daten auf den Server in der Zweitwohnung zu spiegeln - mein DSL ist leider zu langsam...
Bisher hatte ich 10TB (md0) für home und 13TB (md1) für Backup - lief alles wunderbar, jetzt habe ich mir neue Platten für md1 gekauft und ne SSD fürs Betriebssystem und wollte das ganze mit Suse 13.2 neu hochziehen und da trat das Problem mit dem Einhängen auf. Da ich in den nächsten 2Wochen ein Stabiles System brauche, werde ich jetzt erstmal wieder auf den alten Zustand (Suse 12.3 auf ner SCSI, 10TB home und 13TB Backup) zurückbauen und einen neuen Anlauf starten wenn ich wieder mehr Zeit habe. Vielleicht findet sich inzwischen eine geniale Lösung...
Auf jeden Fall schon mal Danke für jeden guten Tipp.
Schönen Sonntag noch.
Hans
 

gehrke

Administrator
Teammitglied
Zum Thema 'Software-RAID um zusätzliche Festplatten erweitern' könnte Dir evtl. das hier weiterhelfen:
http://wiki.linux-club.de/opensuse/Festplatten-Kapazit%C3%A4t_erweitern_%28mdadm_%2B_LVM_%2B_LUKS%29
 
OP
H

HBux

Newbie
Hallo,
Danke für den Link. Ich habe inzwischen zu meiner alten Konfiguration unter 12.3 zurückgebaut um sicher arbeitsfähig zu sein und gehe das demnächst erneut an sobald ich mehr Zeit habe und werde mich dann mit Erfahrungsbericht melden.
Schönen Abend noch!
 
16 TB und Probleme mit XFS, klingt für mich nach einem 32bit System, da hast Du eine solche Grenze. Normalerweise macht diese sich aber bei einem xfs-check bemerkbar...
 
Oben