• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

SATA Raid verhindert Start von Suse 10.2

it-ruffy

Member
Hallo,

ich habe aufgrund von Grub Problemen bei der Installation von Suse 10.2 während ich den Raid Verbund dran hatte (Fehler 23 glaube ich) - er konnte auf jeden Fall den Grub Eintrag nicht schreiben - den Raid Verbund bei der Installtion von Suse nicht aktiviert/ angeschlossen.

Die Installation auf die verbliebene SATA Platte (/dev/sda) verlief nun fehlerfrei, Grub konnte geschrieben werden, alle Einträge sind korrekt.

Nun habe ich den RAID Verbund wieder angeschlossen und aktiviert. Grub meldet sich, ich wähle Suse aus und kurz darauf hängt sich der Start auf. Der Fehler ist schnell gefunden.

SuSE erkennt den RAID Verbund mehrfach. Einmal korrekt als dmraid und dann jeweils die beiden dazugehörigen Festplatten. Der Bootfehler entsteht dadurch, dass auf einmal die eigentliche Festplatte (/dev/sda) nun (dev/sdc) heißt und somit die Partitionen nicht mehr stimmen.

Ich verstehe nicht, wieso die beiden Raid Festplatten als /dev/sda und /dev/sdb erkannt werden. Ich habe auch keine Möglichkeit gefunden, wie ich erzwingen kann, dass Suse /dev/sda nicht in /dev/sdc umbenennt.

Habe mir gedacht, nachdem nun der Fehler auftritt, dass ich mittels Installations DVD das System repariere. Hierzu habe ich den Reparaturmodus der Installation gewählt und dieser erkannte auch korrekt, dass es nun /dev/sdc sein muss und wollte das ändern. Jedoch zerschoss der mir meine Partitionstabelle (es gibt nun Einträge wie /dev/sdc3 -> /data3), keine Ahnung, wieso die angelegt wurden. Und der korrigierte Grub konnte wieder nicht geschrieben werden.

Ich kann nun Linux nicht mehr starten, egal ob RAID dran ist oder nicht.

Interessant ist, dass Windows startet, egal ob RAID dran ist oder nicht. Grub startet ja von der ersten SATA Platte und ruft sda1 für Windows auf. Ich schließe darauf, dass der Fehler erst nach dem Aufruf von Grub entsteht, denn sonst würde Windows, dass dann auf sdc1 liegen müsste, nicht starten.

Ich werde wohl Suse neu installieren müssen, aber damit ich nicht noch einmal die Probleme kriege, wie oben beschrieben, frage ich euch um Rat an.

Wieso kann Grub nicht auf die Festplatte schreiben, wenn der RAID aktiviert ist? Er soll nicht auf den RAID Verbund schreiben, sondern auf die Festplatte, die alleine läuft und am ersten SATA Port hängt.

Wieso ändert Suse eigenmächtig die Zuordnung der Festplatten, sobald das RAID aktiviert ist? Es muss doch ein Fehler sein, dass aus dem ersten SATA Device auf einmal das dritte wird.

Wie kann ich am besten Suse installieren, ohne dass es den RAID erkennt, egal ob beim Installieren oder Booten? Der RAID enthält nur eine NTFS Partition für Windows. Darauf werden sich niemals Linux Daten befinden.

Hier noch die Daten zum System:
- ASUS Mainboard
- Nvidia Nforce 4 SLI Chipsatz
- 500GB HDD an 1. SATA Port (erkannt: primary sata)
- 250GB HDD an 3. & 4. SATA Port (erkannt: third & fourth sata) konfiguriert als RAID0 mittels Nvidia RAID Controller
- 2GB PC400 DDR Ram
- Athlon 64 3500+
 
Hallo,

schau mal, in welcher Reihenfolge die Platten/Sata-Treiber beim booten von der cd/dvd aufgerufen werden und vergleiche es mit den Einträgen in der initrd. Die relevanten Einträge müssen exakt in der gleichen Reihenfolge sein.
 
Bei Fakeraid wird sowieso /dev/mapper/* verwendet, da ist die Reihenfolge so ziemlich egal nachdem GRUB durch ist.
 
OP
I

it-ruffy

Member
Es wird immer /dev/sda und /dev/sdb für die beiden im RAID Verbund laufenden Platten zugewiesen. Des weiteren erhalten sie den Mapper Eintrag, über den ich sie auch ansprechen kann.

Ärgferlich und mir unverständlich ist es, dass die erst SATA Platte zur dritten wird, sobald man andere SATA Platten anschließt. Habe es auch mit einer non RAID SATA Platte am zweiten Port probiert und siehe da, sie war dev/sda. Eigentlich hätte sie dev/sdb sein müssen.

Naja, ich installiere dann wieder 10.1, da hatte ich diese Fehler nicht, vielleicht ist es ein Kernel/ treiberproblem, dass das passiert.

Aber schon sehr Schade.
 
bei mir wars halt der UNterschied des Treiberaufrufs beim Installieren und wie es dann in der initrd steht.
Ein Tausch der plattenrelevanten Treiber hat Erfolg gebracht.

Grüße
 
Oben