Diese Website existiert nur weil wir Werbung mit AdSense ausliefern.
Bitte den AdBlocker daher auf dieser Website ausschalten! Danke.

SATA Raid verhindert Start von Suse 10.2

Alles rund um die Systemverwaltung, die Administration und Konfiguration Eures Linuxsystems

Moderator: Moderatoren

Antworten
it-ruffy
Member
Member
Beiträge: 56
Registriert: 5. Mär 2004, 13:38
Wohnort: Hildesheim
Kontaktdaten:

SATA Raid verhindert Start von Suse 10.2

Beitrag von it-ruffy » 14. Mai 2007, 18:56

Hallo,

ich habe aufgrund von Grub Problemen bei der Installation von Suse 10.2 während ich den Raid Verbund dran hatte (Fehler 23 glaube ich) - er konnte auf jeden Fall den Grub Eintrag nicht schreiben - den Raid Verbund bei der Installtion von Suse nicht aktiviert/ angeschlossen.

Die Installation auf die verbliebene SATA Platte (/dev/sda) verlief nun fehlerfrei, Grub konnte geschrieben werden, alle Einträge sind korrekt.

Nun habe ich den RAID Verbund wieder angeschlossen und aktiviert. Grub meldet sich, ich wähle Suse aus und kurz darauf hängt sich der Start auf. Der Fehler ist schnell gefunden.

SuSE erkennt den RAID Verbund mehrfach. Einmal korrekt als dmraid und dann jeweils die beiden dazugehörigen Festplatten. Der Bootfehler entsteht dadurch, dass auf einmal die eigentliche Festplatte (/dev/sda) nun (dev/sdc) heißt und somit die Partitionen nicht mehr stimmen.

Ich verstehe nicht, wieso die beiden Raid Festplatten als /dev/sda und /dev/sdb erkannt werden. Ich habe auch keine Möglichkeit gefunden, wie ich erzwingen kann, dass Suse /dev/sda nicht in /dev/sdc umbenennt.

Habe mir gedacht, nachdem nun der Fehler auftritt, dass ich mittels Installations DVD das System repariere. Hierzu habe ich den Reparaturmodus der Installation gewählt und dieser erkannte auch korrekt, dass es nun /dev/sdc sein muss und wollte das ändern. Jedoch zerschoss der mir meine Partitionstabelle (es gibt nun Einträge wie /dev/sdc3 -> /data3), keine Ahnung, wieso die angelegt wurden. Und der korrigierte Grub konnte wieder nicht geschrieben werden.

Ich kann nun Linux nicht mehr starten, egal ob RAID dran ist oder nicht.

Interessant ist, dass Windows startet, egal ob RAID dran ist oder nicht. Grub startet ja von der ersten SATA Platte und ruft sda1 für Windows auf. Ich schließe darauf, dass der Fehler erst nach dem Aufruf von Grub entsteht, denn sonst würde Windows, dass dann auf sdc1 liegen müsste, nicht starten.

Ich werde wohl Suse neu installieren müssen, aber damit ich nicht noch einmal die Probleme kriege, wie oben beschrieben, frage ich euch um Rat an.

Wieso kann Grub nicht auf die Festplatte schreiben, wenn der RAID aktiviert ist? Er soll nicht auf den RAID Verbund schreiben, sondern auf die Festplatte, die alleine läuft und am ersten SATA Port hängt.

Wieso ändert Suse eigenmächtig die Zuordnung der Festplatten, sobald das RAID aktiviert ist? Es muss doch ein Fehler sein, dass aus dem ersten SATA Device auf einmal das dritte wird.

Wie kann ich am besten Suse installieren, ohne dass es den RAID erkennt, egal ob beim Installieren oder Booten? Der RAID enthält nur eine NTFS Partition für Windows. Darauf werden sich niemals Linux Daten befinden.

Hier noch die Daten zum System:
- ASUS Mainboard
- Nvidia Nforce 4 SLI Chipsatz
- 500GB HDD an 1. SATA Port (erkannt: primary sata)
- 250GB HDD an 3. & 4. SATA Port (erkannt: third & fourth sata) konfiguriert als RAID0 mittels Nvidia RAID Controller
- 2GB PC400 DDR Ram
- Athlon 64 3500+
openSuSE 10.2, Gnome
Windows XP

Werbung:
carsten
Guru
Guru
Beiträge: 1632
Registriert: 27. Jan 2004, 13:27
Wohnort: Mittelhessen

Beitrag von carsten » 14. Mai 2007, 22:45

Hallo,

schau mal, in welcher Reihenfolge die Platten/Sata-Treiber beim booten von der cd/dvd aufgerufen werden und vergleiche es mit den Einträgen in der initrd. Die relevanten Einträge müssen exakt in der gleichen Reihenfolge sein.
Intel DB65ALB3, Chipsatz B65, Celeron G540, 4GB, 1x1TB System, 2x 2TB SATA RAID1, SuSE 13.2 (noch)

jengelh
Guru
Guru
Beiträge: 4039
Registriert: 20. Nov 2004, 17:42
Kontaktdaten:

Beitrag von jengelh » 15. Mai 2007, 00:12

Bei Fakeraid wird sowieso /dev/mapper/* verwendet, da ist die Reihenfolge so ziemlich egal nachdem GRUB durch ist.

it-ruffy
Member
Member
Beiträge: 56
Registriert: 5. Mär 2004, 13:38
Wohnort: Hildesheim
Kontaktdaten:

Beitrag von it-ruffy » 15. Mai 2007, 13:45

Es wird immer /dev/sda und /dev/sdb für die beiden im RAID Verbund laufenden Platten zugewiesen. Des weiteren erhalten sie den Mapper Eintrag, über den ich sie auch ansprechen kann.

Ärgferlich und mir unverständlich ist es, dass die erst SATA Platte zur dritten wird, sobald man andere SATA Platten anschließt. Habe es auch mit einer non RAID SATA Platte am zweiten Port probiert und siehe da, sie war dev/sda. Eigentlich hätte sie dev/sdb sein müssen.

Naja, ich installiere dann wieder 10.1, da hatte ich diese Fehler nicht, vielleicht ist es ein Kernel/ treiberproblem, dass das passiert.

Aber schon sehr Schade.
openSuSE 10.2, Gnome
Windows XP

carsten
Guru
Guru
Beiträge: 1632
Registriert: 27. Jan 2004, 13:27
Wohnort: Mittelhessen

Beitrag von carsten » 15. Mai 2007, 21:30

bei mir wars halt der UNterschied des Treiberaufrufs beim Installieren und wie es dann in der initrd steht.
Ein Tausch der plattenrelevanten Treiber hat Erfolg gebracht.

Grüße
Intel DB65ALB3, Chipsatz B65, Celeron G540, 4GB, 1x1TB System, 2x 2TB SATA RAID1, SuSE 13.2 (noch)

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste