swap via netzwerk

Alles rund um die Systemverwaltung, die Administration und Konfiguration Eures Linuxsystems

Moderator: Moderatoren

Antworten
Benutzeravatar
xeon
Newbie
Newbie
Beiträge: 8
Registriert: 21. Jun 2005, 14:47
Kontaktdaten:

swap via netzwerk

Beitrag von xeon » 9. Nov 2005, 16:36

hi!

ich hab da ein problem. und zwar habe ich einige rechner an der arbeit, die 1gb hauptspeicher haben aber keine platten. bisher war das auch alles kein problem... aber jetzt soll an diesen rechnern mit eclipse entwickelt werden und der speicher läuft regelmäßig über und kde + co. verabschieden sich daraufhin....

OS
Server=SuSE 9.3
Client=SuSE 9.1

ich hatte etwas von einem nbd (network block device) gelesen und habs dann auch gleich ausprobiert. top sagt mir auch, dass der speicher als swap allockiert wurde. 1-2 mal lagert er dann auch aus aber das wars dann auch schon. daraufhin schießt sich das system dann wieder ab.

mein bisheriges vorgehen:

nbd.14.tar.gz heruntergeladen und auf server & client mit make und ./configure compiliert. dann:

server

Code: Alles auswählen

modprobe nbd
dd if=/dev/zero of=/tmp/swap_1 bs=1024 count=1048576
mkswap /tmp/swap_1
./nbd-server 1024 /tmp/swap_1
client

Code: Alles auswählen

mknod /dev/nd0 b 43 0
modprobe nbd
./nbd-client server_ip 1024 /dev/nd0
swapon /dev/nd0
habs anstatt mit einer file auch schon mit einem richtigen swap block-device probiert... firewall regeln sind ok - hatte sie auch schon mal aus.
außerdem hab ich es schon lokal nur auf einem rechner probiert. selbe ergebnis...

hab ich da irgendwo einen denkfehler drin? oder gibt es eine andere möglichkeit?

vielen dank schonmal im vorraus!

gruß, chris

Werbung:
Benutzeravatar
robi
Moderator
Moderator
Beiträge: 3141
Registriert: 25. Aug 2004, 02:13

Beitrag von robi » 9. Nov 2005, 21:15

Ich hatte vor Jahren mal nfs-swap irgenwo auf einem diskless client installiert, http://nfs-swap.dot-heine.de/
ist zwar auch nicht die beste Alternative, doch bevor die Kiste komplett einfriert .........

robi

Benutzeravatar
xeon
Newbie
Newbie
Beiträge: 8
Registriert: 21. Jun 2005, 14:47
Kontaktdaten:

Beitrag von xeon » 9. Nov 2005, 21:55

hi!

das problem ist, dass diese technik wohl auch nicht weiter ausreift. hab ich schon was drüber gelesen. und der entwickler macht schon länger nichts mehr dran.

ich werds auf alle fälle mal probieren. besser ist es alle mal! hast schon recht damit! nur das problem ist, dass man ungern dinge (gerade im bezug auf netzwerke) probiert, die nicht weiter entwickelt werden und uralt sind. :mrgreen:

wie dem auch sei. ich probiers trotzdem mal ;)

dank dir vielmals! wenn aber trotzdem jemand noch eine fixe idee kriegt - bitte melden!

p.s.: ich meld mich ma, obs geklappt hat.

Dr. Glastonbury
Advanced Hacker
Advanced Hacker
Beiträge: 1149
Registriert: 20. Aug 2004, 12:27
Wohnort: München
Kontaktdaten:

Beitrag von Dr. Glastonbury » 10. Nov 2005, 19:32

Keine Hilfe von mir :roll:, aber ne Frage:
Was bringt das? Ich mein, n normales 100MBit/s Netzwerk ist doch um Äonen langsamer als ne IDE-Festplatte! Warum steckste also nicht noch ne Platte rein und machst auf der ne 2GB-Swap-partition?

Oder versteh ich da was falsch?
Das Leben: hasse oder ignoriere es, lieben kannst du es nicht.

Benutzeravatar
robi
Moderator
Moderator
Beiträge: 3141
Registriert: 25. Aug 2004, 02:13

Beitrag von robi » 10. Nov 2005, 22:25

Dr. Glastonbury hat geschrieben: Warum steckste also nicht noch ne Platte rein und machst auf der ne 2GB-Swap-partition?
Es gibt da eine ganze Menge möglicher Konzepte und Günde siehe zB. hier http://www.absoluteswissen.de/programmierung/c63.htm

In manchen Kozepten ist genau das was du vorgeschlagen hast die teuerste Lösung, stell dir vor es sind nicht 1 Rechner den das betrifft, sondern 1000 Rechner.
Ich würde also 1000 Festplatten benötigen, 5 Techniker minimum 1 Woche beschäftigt, hätte jede Menge Ausfallzeit an diesen 1000 Rechnern, müsste jeden einzelnen neu konfigurieren, und die Wahrscheinlichkeit das von diesen Platten in einem Jahr 5 Stück ausfallen ist groß, damit verbunden wieder Datenverluste, Arbeitsausfall, Reparaturkosten, usw.

Hier rechnet man anders für 1000Rechner Swap( davon sind wegen Schichtarbeit oÄ nur max 80% zur gleichen Zeit am laufen), da erweitere ich meine Raidbüchse um einige 100GB schnellen Raid und mache für alle 1000 Rechner mit einem einzigem Eintrag die Konfiguration.
Also benötige ich nur ein paar 147GB FC/SCSI Festplatten, das Raidsystem und alles andere steht ja sowieso schon. Eine halbe Stunde Konfiguration an der Raidbuchse und am Server, 4 FC-Controller am Servercluster können wir gleich mal zusätzlich "online" einbauen lassen. Also Anschaffungskosten gespart und keine Ausfallkosten, kein Risiko da alles redundant.
Was meist du was dein Chef jetzt schneller unterschreibt :?: :wink:

Hat selbstverständlich auch Nachteile (denken wir zB nur mal an die 5 Techniker die jetzt eine Woche zuhause weiter nichts zu tun haben, als ihren Frauen auf die Nerven zu gehen) , aber das Einzige was heute überhaupt bei deinem Chef zählt, sind doch die Kosten.
"wir sparen also jeden Cent, koste es was es wolle"

robi

rolle
Guru
Guru
Beiträge: 3721
Registriert: 4. Mai 2004, 21:50
Kontaktdaten:

Beitrag von rolle » 10. Nov 2005, 22:47

Wobei ich Dr. Glastonbury Recht geben muß; um eine schnelle Netzanbindung wirst Du nicht umhin kommen, damit das Swappen zeitlich erträglich bleibt.
Horrido, Roland

Für meine Postings gilt außer bei Zitaten hier im Linux-Club die Creative Commons.

Dr. Glastonbury
Advanced Hacker
Advanced Hacker
Beiträge: 1149
Registriert: 20. Aug 2004, 12:27
Wohnort: München
Kontaktdaten:

Beitrag von Dr. Glastonbury » 10. Nov 2005, 22:52

robi hat geschrieben:...und die Wahrscheinlichkeit das von diesen Platten in einem Jahr 5 Stück ausfallen ist groß, damit verbunden wieder Datenverluste, Arbeitsausfall, Reparaturkosten, usw.
Die anderen Gründe sind ok; der allerdings nicht^^
In meiner Schule haben wir knap 50PCs (ok sind nur ein 20stel von 1000), aber die schon seit mehreren Jahren und bisher ist erst eine einzige Platte kaputt gegangen - und in einer Schule kann man sich vorstellen, was mit den Geräten so täglich passiert^^

Und wenn man sie nur als Swap einrichtet zählt der Datenverlust auch nicht ;)

Aber der Link ist schon interessant - thx!
Das Leben: hasse oder ignoriere es, lieben kannst du es nicht.

Benutzeravatar
robi
Moderator
Moderator
Beiträge: 3141
Registriert: 25. Aug 2004, 02:13

Beitrag von robi » 10. Nov 2005, 23:00

rolle hat geschrieben:um eine schnelle Netzanbindung wirst Du nicht umhin kommen, damit das Swappen zeitlich erträglich bleibt.
Das streitet ja niemand ab, normalerweise arbeit man mit diesen Kisten eh nur wie mit einem Terminal, hat also nur Tastatur Maus Bildschirm alles andere läuft im Speicher, Programme laufen im Server, nur wenn da wie xeon beschrieben hat irgendwelche aufwendige Programme local laufen sollen, kann es mal passieren dass der Speicher voll läuft, dann kann man mit etwas net-swap erstmal verhindern dass die Kiste mit Datenverlust stehen bleibt, egal wie langsam der swap ist. Wenn die Kiste dann swapt dann kann und muss man was dagegen unternehmen, damit das wieder aufhört, nur ohne swap bleibt oft nur der RESET mit Datenverlust. Wenn das öter passiert, dann sollte man sein Konzept mal überprüfen.

robi

Benutzeravatar
robi
Moderator
Moderator
Beiträge: 3141
Registriert: 25. Aug 2004, 02:13

Beitrag von robi » 10. Nov 2005, 23:25

Dr. Glastonbury hat geschrieben: In meiner Schule haben wir knap 50PCs (ok sind nur ein 20stel von 1000), aber die schon seit mehreren Jahren und bisher ist erst eine einzige Platte kaputt gegangen
................
Und wenn man sie nur als Swap einrichtet zählt der Datenverlust auch nicht ;)
Mein Chef würde rechnen : 1 Ausfall * 20 / 4 Jahre = 5 Platten im Jahr.

Also ist die Wahrscheinlichkeit das 5 Platten von 1000 im Jahr ausfallen doch hoch. was zu beweisen war.

Datenverlust tritt dann auf, wenn der Speicher voll ist und nicht ausgelagert werden kann, aktuelle Änderungen können nicht mehr abgespeichert werden, da der Rechner nicht mehr zu reagieren scheint.

robi

Benutzeravatar
xeon
Newbie
Newbie
Beiträge: 8
Registriert: 21. Jun 2005, 14:47
Kontaktdaten:

Beitrag von xeon » 10. Nov 2005, 23:52

hi leutz!

danke für die rege beteiligung :-D

also - hab das mit den nbd hinbekommen. hatte anscheinend eine veraltete version und habs dann auchnoch vorerst aufm loopback probiert. resultat: er hat die swapfile gelockt ;)

jetzt geht alles wunderbar!

zur kurzen erläuterung warum:
diese rechner stehen in nem studentenpool. das soll heißen, sie laufen ständig und werden häufig als rechencluster genutzt.
wenn ich jetzt einen studenten - wie heute habe - der sich ransetzt und meint, der monitor ist aus - dann scheint auch der rechner aus zu sein, dann fliegt regelmäßig das journal weg.
punkt 2: die kisten haben 1-2gb ram und können viel arbeiten. wenn jetzt aber ein verteilter crawler drauf läuft und nebenbei jemand eclipse startet, wird es zum verhängnis, wenn man nich swappen kann.
punkt 3: geld für jeden rechner ausgeben um jeweils eine platte zu kaufen? nee - das wär zu teuer. wenn wir diese lösung jetzt 1 mal haben, brauchen wir uns einfach keine sorgen machen, wie es mit dem geld aussieht, wenn man sich mal ein paar rechner mehr zulegt ;)
punkt 4: netzwerk is gbit und reicht problemlos dafür aus :-D

wünsch euch allen eine gute nacht!

gruß, der chris

Dr. Glastonbury
Advanced Hacker
Advanced Hacker
Beiträge: 1149
Registriert: 20. Aug 2004, 12:27
Wohnort: München
Kontaktdaten:

Beitrag von Dr. Glastonbury » 11. Nov 2005, 20:07

Ok, ich bin überredet^^
Auch wenn das ne Frechheit wäre, wenn man von nem Hersteller bei einer Bestellung von 1000-Platten garantiert eine bekommt, die nicht länger als ein Jahr durchhält! Ich würde mich da ja bedanken ;)
Das Leben: hasse oder ignoriere es, lieben kannst du es nicht.

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste