• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

Festplatten mounten | Datenrettung aus Synology DS218+ RAID1-Verbund

peterhase

Newbie
Hallo Linux-Gemeinde.

Problemstellung:
Die Daten aus zwei Festplatten (Seagate Iron Wolf), die in einem RAID1-Verbund in eine NAS (Synology DS218+) eingebunden waren, sollen auf einer anderen Festplatte gesichert werden.

Hintergrund (technisch):
Die NAS ist vor ein paar Wochen nicht mehr hochgefahren. Der Synology-Support hat in mehreren Anläufen über Remote-Zugriff leider nicht helfen können und verweist darauf, einen professionellen Datenrettungsdienst zu konsultieren.
Die Festplatten sind laut Seagate-Festplatten-Test einwandfrei.
Die NAS lässt sich mit anderen Festplatten auch einwandfrei betreiben.
Sobald jedoch die ursprünglichen Festplatten in die NAS eingesetzt sind, funktioniert das System nicht mehr.
Die Vermutung ist, dass ein Update des Betriebssystems (»DSM«) nicht vollständig aufgespielt wurde bzw. werden konnte und das Booten deshalb nicht funktioniert.

Hintergrund (persönlich):
Ich bin noch sehr neu in der Linuxwelt und richte mich daher mit der Hoffnung auf hilfreiche Hinweise an euch. Meine bisherigen Recherchen zum aktuellen Problem mündeten zwar immer wieder in (Terminal-)Ergebnisse, doch da mein Wissen begrenzt ist, kann ich diese nicht interpretieren oder bin nur auf sehr alte Foreneinträge gestoßen, von denen ich annehme, dass sie – auch wenn ich sie verstünde – nicht zur Lösung führen.

---

Neben der erfolglosen Supportanfrage an Synology waren die folgende Quellen die besten. Die entsprechend angewiesen Schritte habe ich unternommen. Siehe unten die Terminalausgabe.

  • - https://kb.synology.com/de-de/DSM/tutorial/How_can_I_recover_data_from_my_DiskStation_using_a_PC
    - https://www.youtube.com/watch?v=Fik4AVZGr1I
    - https://www.youtube.com/watch?v=A8ITr5ZpzvA

Terminal-Ausgabe:

Code:
p***@Apollon:~$ sudo -i
[sudo] Passwort für p***: 
Das hat nicht funktioniert, bitte nochmal probieren.
[sudo] Passwort für p***: 
root@Apollon:~# apt-get update
OK:1 http://de.archive.ubuntu.com/ubuntu focal InRelease
OK:2 http://de.archive.ubuntu.com/ubuntu focal-updates InRelease
Holen:3 http://security.ubuntu.com/ubuntu focal-security InRelease [114 kB]
Holen:4 http://security.ubuntu.com/ubuntu focal-security/main amd64 DEP-11 Metadata [27,6 kB]
Holen:5 http://security.ubuntu.com/ubuntu focal-security/universe amd64 DEP-11 Metadata [60,8 kB]
Holen:6 http://security.ubuntu.com/ubuntu focal-security/multiverse amd64 DEP-11 Metadata [2.468 B]
Es wurden 205 kB in 1 s geholt (228 kB/s).                               
Paketlisten werden gelesen... Fertig
root@Apollon:~# apt-get install -y mdadm lvm2
Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut.       
Statusinformationen werden eingelesen.... Fertig
lvm2 ist schon die neueste Version (2.03.07-1ubuntu1).
mdadm ist schon die neueste Version (4.1-5ubuntu1.2).
0 aktualisiert, 0 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
root@Apollon:~# mdadm -Asf && vgchange -ay
mdadm: Found some drive for an array that is already active: /dev/md/2
mdadm: giving up.
root@Apollon:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdc3[1]
      11714063360 blocks super 1.2 [2/1] [_U]
      
unused devices: <none>
root@Apollon:~# lvs
root@Apollon:~# mount /dev/md2 /home/p***/nas-tulpa/ -o ro
mount: /home/p***/nas-tulpa: Falscher Dateisystemtyp, ungültige Optionen, der Superblock von /dev/md2 ist beschädigt, fehlende Kodierungsseite oder ein anderer Fehler.

Und ab diesem Punkt komme ich leider nicht weiter.
Habt ihr erfahrenen Linux-User ggf. einen Hinweis, was ich noch testen kann, um dem Problem auf die Spur zu kommen?

Vielen Dank für jede konstruktive Hilfe.
 

gehrke

Administrator
Teammitglied
Erste Direktive in solchen Fällen: Ruhe bewahren und geduldig sein!

Bevor Du irgendetwas weitergehendes unternimmst:
*Hast Du ein valides Backup der hier liegenden Daten?
*Hast Du eine Festplatte mit genügend großer Kapazität, um von dem aktuellen Stand ein Abbild speichern zu können? Das wäre eine potentiell wichtige Versicherung, falls bei den anstehenden Wiederherstellungsarbeiten etwas schief geht.

Das '_U' deute ich so, dass die eine Platte/Partition als defekt ('_') angesehen wird, die andere aber als funktional ('U').

peterhase schrieb:
Code:
root@Apollon:~# mdadm -Asf && vgchange -ay
mdadm: Found some drive for an array that is already active: /dev/md/2
mdadm: giving up.

root@Apollon:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdc3[1]
      11714063360 blocks super 1.2 [2/1] [_U]
      
unused devices: <none>
 

gehrke

Administrator
Teammitglied
Vielleicht hilft Dir dieser Beitrag hier beim Verständnis:

https://unix.stackexchange.com/questions/267209/mdadm-assembling-another-array-using-device-removed-from-active-one
 

josef-wien

Ultimate Guru
Zeige einmal das Ergebnis von
Code:
lsblk -o +FSTYPE
und als root von:
Code:
mdadm --detail --scan --verbose --verbose


Wenn ich vgchange und lvs lese, dann ist offenbar LVM mit im Spiel (und ich bin dann draußen).
 

Jägerschlürfer

Moderator
Teammitglied
hast du noch eine Sicherung?

Was spricht dagegen, wenn du einfach die defekte Platte gegen eine neue Platte tauschst? Nachdem das ein Raid1 System ist, sollten die Daten eigentlich wieder auf die neue Platte gespiegelt werden,...
Oder hast du das schon einmal getestet?

Du hast nur geschrieben, dass du beide Platten einmal getauscht hast, und dass das NAS dann wieder korrekt gestartet ist,...
 
OP
P

peterhase

Newbie
josef-wien schrieb:
Zeige einmal das Ergebnis von
Code:
lsblk -o +FSTYPE
und als root von:
Code:
mdadm --detail --scan --verbose --verbose

Das Ergebnis ist:

Code:
root@Apollon:~# lsblk -o +FSTYPE
NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT                                FSTYPE
loop0         7:0    0  10,2M  1 loop  /snap/canonical-livepatch/104             squashfs
loop1         7:1    0 246,5M  1 loop  /snap/brave/127                           squashfs
loop2         7:2    0 246,5M  1 loop  /snap/brave/130                           squashfs
loop3         7:3    0 213,8M  1 loop  /snap/code/72                             squashfs
loop4         7:4    0  61,8M  1 loop  /snap/core20/1081                         squashfs
loop5         7:5    0  61,7M  1 loop  /snap/core20/1026                         squashfs
loop6         7:6    0  64,8M  1 loop  /snap/gtk-common-themes/1514              squashfs
loop7         7:7    0 138,8M  1 loop  /snap/inkscape/8746                       squashfs
loop8         7:8    0   319M  1 loop  /snap/kde-frameworks-5-qt-5-15-3-core20/5 squashfs
loop9         7:9    0 323,5M  1 loop  /snap/kde-frameworks-5-qt-5-15-core20/14  squashfs
loop10        7:10   0  76,7M  1 loop  /snap/discord/122                         squashfs
loop11        7:11   0 208,4M  1 loop  /snap/code/74                             squashfs
loop12        7:12   0 301,2M  1 loop  /snap/obs-studio/1258                     squashfs
loop13        7:13   0  77,2M  1 loop  /snap/discord/128                         squashfs
loop14        7:14   0   171M  1 loop  /snap/kdenlive/26                         squashfs
loop15        7:15   0 295,7M  1 loop  /snap/obs-studio/1251                     squashfs
loop16        7:16   0  32,3M  1 loop  /snap/snapd/12883                         squashfs
loop17        7:17   0  99,4M  1 loop  /snap/core/11420                          squashfs
loop18        7:18   0    72K  1 loop  /snap/gog-galaxy-wine/495                 squashfs
loop19        7:19   0 276,7M  1 loop  /snap/gimp/372                            squashfs
loop20        7:20   0  99,4M  1 loop  /snap/core/11606                          squashfs
loop21        7:21   0   363M  1 loop  /snap/kdenlive/39                         squashfs
loop22        7:22   0    51M  1 loop  /snap/snap-store/547                      squashfs
loop23        7:23   0  10,2M  1 loop  /snap/canonical-livepatch/105             squashfs
loop24        7:24   0  55,4M  1 loop  /snap/core18/2128                         squashfs
loop25        7:25   0 176,9M  1 loop  /snap/krita/64                            squashfs
loop26        7:26   0   219M  1 loop  /snap/gnome-3-34-1804/72                  squashfs
loop27        7:27   0 162,9M  1 loop  /snap/gnome-3-28-1804/145                 squashfs
loop28        7:28   0 392,1M  1 loop  /snap/gog-galaxy-wine/171                 squashfs
loop29        7:29   0   317M  1 loop  /snap/kde-frameworks-5-qt-5-15-3-core20/3 squashfs
loop30        7:30   0   219M  1 loop  /snap/gnome-3-34-1804/66                  squashfs
loop31        7:31   0 322,8M  1 loop  /snap/wine-platform-6-stable/8            squashfs
loop32        7:32   0   338M  1 loop  /snap/wine-platform-runtime/241           squashfs
loop33        7:33   0 304,2M  1 loop  /snap/telegram-desktop/2956               squashfs
loop34        7:34   0 295,6M  1 loop  /snap/vlc/2288                            squashfs
loop35        7:35   0  65,1M  1 loop  /snap/gtk-common-themes/1515              squashfs
loop36        7:36   0  55,5M  1 loop  /snap/core18/2074                         squashfs
loop37        7:37   0 260,7M  1 loop  /snap/kde-frameworks-5-core18/32          squashfs
loop38        7:38   0 184,8M  1 loop  /snap/inkscape/9090                       squashfs
loop39        7:39   0 164,8M  1 loop  /snap/gnome-3-28-1804/161                 squashfs
loop40        7:40   0 123,8M  1 loop  /snap/slack/43                            squashfs
loop41        7:41   0 295,7M  1 loop  /snap/vlc/2344                            squashfs
loop42        7:42   0 126,6M  1 loop  /snap/slack/44                            squashfs
loop43        7:43   0 306,9M  1 loop  /snap/telegram-desktop/2982               squashfs
loop44        7:44   0 138,1M  1 loop  /snap/krita/63                            squashfs
loop45        7:45   0    51M  1 loop  /snap/snap-store/518                      squashfs
loop46        7:46   0 105,8M  1 loop  /snap/mailspring/506                      squashfs
loop47        7:47   0  32,3M  1 loop  /snap/snapd/12704                         squashfs
loop48        7:48   0 191,6M  1 loop  /snap/mailspring/505                      squashfs
sda           8:0    0 238,5G  0 disk                                            
├─sda1        8:1    0  93,1G  0 part  /                                         ext4
├─sda2        8:2    0  46,6G  0 part  [SWAP]                                    swap
└─sda3        8:3    0  98,8G  0 part  /home                                     ext4
sdb           8:16   0  10,9T  0 disk                                            
├─sdb1        8:17   0   2,4G  0 part                                            linux_raid_member
├─sdb2        8:18   0     2G  0 part                                            linux_raid_member
└─sdb3        8:19   0  10,9T  0 part                                            linux_raid_member
sdc           8:32   0  10,9T  0 disk                                            
├─sdc1        8:33   0   2,4G  0 part                                            linux_raid_member
├─sdc2        8:34   0     2G  0 part                                            linux_raid_member
└─sdc3        8:35   0  10,9T  0 part                                            linux_raid_member
  └─md2       9:2    0  10,9T  0 raid1                                           btrfs
sdd           8:48   1   239G  0 disk                                            
└─sdd1        8:49   1   239G  0 part  /media/p***/Samsung USB             exfat
sde           8:64   0  39,3M  0 disk                                            
└─sde1        8:65   0  39,2M  0 part  /media/p***/CODEMETER               vfat
nvme0n1     259:0    0 931,5G  0 disk                                            
├─nvme0n1p1 259:1    0   100M  0 part  /boot/efi                                 vfat
├─nvme0n1p2 259:2    0    16M  0 part                                            
├─nvme0n1p3 259:3    0 930,9G  0 part                                            ntfs
└─nvme0n1p4 259:4    0   515M  0 part                                            ntfs

Und weiter:
Code:
root@Apollon:~# mdadm --detail --scan --verbose --verbose
/dev/md/2:
           Version : 1.2
     Creation Time : Sat Sep  8 00:35:30 2018
        Raid Level : raid1
        Array Size : 11714063360 (11171.40 GiB 11995.20 GB)
     Used Dev Size : 11714063360 (11171.40 GiB 11995.20 GB)
      Raid Devices : 2
     Total Devices : 1
       Persistence : Superblock is persistent

       Update Time : Wed Jun 30 23:10:15 2021
             State : clean, degraded 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : tulpa:2
              UUID : 4fda13eb:0cd58731:56c06046:9e42bbe7
            Events : 4214

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       35        1      active sync   /dev/sdc3
 
OP
P

peterhase

Newbie
gehrke schrieb:
Erste Direktive in solchen Fällen: Ruhe bewahren und geduldig sein!

Bevor Du irgendetwas weitergehendes unternimmst:
*Hast Du ein valides Backup der hier liegenden Daten?
*Hast Du eine Festplatte mit genügend großer Kapazität, um von dem aktuellen Stand ein Abbild speichern zu können? Das wäre eine potentiell wichtige Versicherung, falls bei den anstehenden Wiederherstellungsarbeiten etwas schief geht.

Hey. Danke für die netten Worte.
Ich habe mir nun erstmal eine Festplatte bestellt, worauf ich eine der Platten sichern kann. Sobald ich sie habe, kann es weitergehen.

gehrke schrieb:
Das '_U' deute ich so, dass die eine Platte/Partition als defekt ('_') angesehen wird, die andere aber als funktional ('U').

peterhase schrieb:
Code:
root@Apollon:~# mdadm -Asf && vgchange -ay
mdadm: Found some drive for an array that is already active: /dev/md/2
mdadm: giving up.

root@Apollon:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md2 : active raid1 sdc3[1]
      11714063360 blocks super 1.2 [2/1] [_U]
      
unused devices: <none>

Oh, vielen Dank für die Info. Linux ist so neu für mich, da bin ich um alles froh, was mein Verständnis erhöht. :+1:
 

josef-wien

Ultimate Guru
Das RAID1 /dev/md2 (bzw. /dev/md/2) besteht nur aus einer Partition (/dev/sdc3), die vermutlich zweite Partition (/dev/sdb3) ist derzeit nicht Bestandteil des RAID1. Das RAID1 ist formal in Ordnung und sauber. Vermutlich liegt das Problem beim Dateisystem, aber bei btrfs kann ich dazu nicht beitragen.

Außerdem scheinen die anderen Partitonen von /dev/sdb und /dev/sdc die Bestandteile von zwei weiteren (derzeit nicht aktiven) RAID1 zu sein.
 
Oben