• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

Speedproblem bei NFS Verbindung

aerosol

Newbie
Hallo ersmal ...

also Ich habe einen Backup-Server und einen NetApp Filer FAS270 als Datengrab. Beide sind mit einer 1 gigabit Verbindung angeschlossen. Der Backup Server soll nun (wäre hätte es gedacht;) ) die Daten des Filers sichern.

Ich realisiere das nun mit der Software "synbak" + ein paar Modifikationen. Die Modifikation besteht hauptsächlich aus einer Anpassung der Blocksize und dem Einbau des "mbuffer" um Die Daten im RAM zwischenzuspeichern, um mit der vollen Geschwindigkeit auf das LTO3 Bandlaufwerk zu schreiben.



Die Daten sind per NFS gemaountet und nach einem "Speedtest"

Ich habe jetzt mal eine ~8gb Große Datei mit dem "mc" rüberkopiert

vom Backup Server auf den Filer mit mindestens: 25MB/s

vom Filer auf den Backup Server mit midestens: 23MB/s


Das würde mir erstmal reichen. Nur ist das Problem, das die zu sichernden Daten (unter anderem 23GB Home shares und Insgesamt ca 140GB) zum größten Teil aus vielen kleinen Dateien in vielen Unterordner bestehen.

Ich habe den mbuffer soweit konfiguriert, das er 2 GB meines RAMs vollschreiben darf und erst wenn diese 2GB zu 95% gefüllt sind, er anfängt auf das bandlaufwerk zu schreiben. Parallel füllt er den Puffer zwar weiter auf.

Auf das Bandlaufwerk schreibe ich konstannt mit 16-17MB/s. ABER so schnell wird der Puffer nicht wieder aufgefüllt, sodas der Puffer leer geht, das Bandlaufwerk anhält nud wieder gewartet wird, bis der Puffer zu 95% gefüllt ist.

Dabei streicht unnötige Zeit ins Land.. sehr viel Zeit :/, denn somit braucht das BAckup ~8Std.

Wenn ich nun allerdings ununterbrochen (Sinn eines Puffers ;) )mit 16MB/s auf das Bandlaufwerk schreiben würde, wäre die reine Schreibtätigkeit in guten 2,5 Std durchgelaufen!

Hat jm eine Idee woran es liegen könnte, das die Übertragungsrate so niedrieg ist?
Ist das einfach nunmal so, das die Übertragungsrate so niedrig ist, wenn es sich um viele kleine Dateien handelt?
Wenn ja, gibt es einen möglichkeit dies zu parallelisieren oder andersweitig zu verschnellern?

Andere Ansätze um eine genauere Analyse des Problems durchführen zu können ?


Danke im vorraus und hoffe ich habe mich verständlich ausgedrückt! :)



Hier die Serverkonfiguration:
--------------------------------------------------------------------
OS: SuSE Linux Enterprise Server 9
Prozessor: 2x Pentium III 1GHz
RAM: 2600MB
SCSI Controller: adaptec AHA-2940UW
HDD: HP Ultra320 universal hard drive
Filesystem: XFS
--------------------------------------------------------------------
 

Yehudi

Guru
Das ist kein Fileserverspezifisches Problem, im Sambabereich läuft zwecks der Gigabitekarten seit Monaten eine Diskussion darüber, und alle möglichen Versuche, schaue doch dort mal bitte rein, und beteilige Dich ggf. an der Diskussion. Ich habe das im Sambabereich stehen gelassen, da dort immer wieder das Problem auftauchte.
 
A

Anonymous

Gast
@Yehudi
nicht alles in einen Topf werfen. Wir haben es alle gelesen und haben auch Verständinis für
......Beiträge, die die Giganetzwerkkarten betreffen, werden sofort gelöscht, wenn sie nicht dort gepostet werden. ..........
Es handelt sich hier um einen bug.........
aber, ich war so ein bisschen er Meinung das trifft Suse 10.x hier haben wir SuSE Linux Enterprise Server 9, du bist sicher das das gleiche Problem ist?


robi
 
OP
A

aerosol

Newbie
Yehudi schrieb:
Das ist kein Fileserverspezifisches Problem, im Sambabereich läuft zwecks der Gigabitekarten seit Monaten eine Diskussion darüber, und alle möglichen Versuche, schaue doch dort mal bitte rein, und beteilige Dich ggf. an der Diskussion. Ich habe das im Sambabereich stehen gelassen, da dort immer wieder das Problem auftauchte.

danke erstmal für den Tip, aber ich habe nun den ganzen Thread gelesen und dort geht es ja eher (bzw in allen post bisauf in einem) darum, das die Geschwindigkeit allgemein schlecht ist auf das Linux System. Allerdings habe ich das Problem, wie oben beschrieben, bei großen Datei nicht, sondern "nur" wenn ich einen Ordner mit vielen Unterordner und vielen kleinen Dateien kopieren will.

Also denke ich, das es sich hier um ein anderes Problem handelt!
 

Yehudi

Guru
robi schrieb:
@Yehudi
nicht alles in einen Topf werfen. Wir haben es alle gelesen und haben auch Verständinis für
......Beiträge, die die Giganetzwerkkarten betreffen, werden sofort gelöscht, wenn sie nicht dort gepostet werden. ..........
Es handelt sich hier um einen bug.........
aber, ich war so ein bisschen er Meinung das trifft Suse 10.x hier haben wir SuSE Linux Enterprise Server 9, du bist sicher das das gleiche Problem ist?


robi

Oh shit, die Signatur außer acht gellassen, aber nach Verfolgung des Problemes dort, würde ich das nicht ausschließen, ich habe da jetzt nicht jede Einzelheit mehr im Kopf, der Thread läuft ja schon eine halbe Ewigkeit.

Was NFS angeht, so habe ich im Vergleich zu Samba und Netatalk das Gefühl, dass es anfälliger ist. Samba läuft beim Transfer immer stabil, bei NFS kommt es da schon mal zu Transferschwankungen.
Von der Installation und Konfiguration kann man aber nicht soviel falsch machen.
In den FAQ's befindet sich ein Artikel von Martin über NFS. Dort sind auch einige Links drin.
Mir persönlich ist da kein solches direktes Problem bekannt.
 

Kurt M

Hacker
du schreibst hier mit 16MB/s auf das Bandlaufwerk, das Netz läuft mir 23 MB/s.

Solche Geschwindigkeiten sind für PCs schon eine echte Herausforderung. Man muss bedenken, dass sowohl der Netzwerktraffic als auch die Daten zum Band über PCI oder IDE laufen müssen.

Ich kann es mir in deinem Fall durchaus vorstellen, dass es der PC nicht schafft beide Aufgaben gleichzeitig mit voller Geschwindigkeit zu erledigen.
Ähnliches ist mir bei meinem P4-2,4GHz Fileserver auch aufgefallen. Immer wenn die Festplatten LED leuchtet wirds am Netz (LED am Router) ziemlich ruhig und umgekehrt.

Möglicherweise schafft der PC das einfach nicht alles gleichzeitig. Das soll nicht heißen, dass er deshalb langsam ist, aber hier bewegt man sich schon im Grenzbereich.
Bei einer Übertragung Platte-Platte fällt das nicht so auf, aber bei einem Band schon, weil dieses immer wieder stehenbleibt was ewig Zeit kostet.

Wenn ich von Platte übers Netz auf Platte kopiere, dann sieht man im Konqui auch, wie die Geschwindigkeit abwechselnd schnell und wieder langsam ist, wenn man die Platten LEDs dabei beobachtet, sieht man, dass das mit dem Schreiben auf die Platte irgendwie zusammenhängt (so ists zumindest bei mir).

Vielleicht hilft es den Puffer viel kleiner zu machen, damit Netzwerk und Band sich öfters mal abwechseln ?

Das angesprochene andere Problem mit der langsamen Netzwerkübertragung bei Gigabitkarten ist glaube ich etwas anderes. Hier würde der Traffic weit schlimmer zusammenbrechen als es bei dir der Fall ist und der Backup würde nicht 8 Stunden sondern Wochen dauern.
 
A

Anonymous

Gast
Ich habe das mal mit einem meiner ähnlichen Server versucht nachzustellen.
2*PentiumIII 933MHZ
2GB RAM
2*SCSI U160 Kontroller
2*LAN 10/100mb

Ich habe allerdings keinen Netapp Filer und kein Giga Netz aber es geht mit dieser Hardware definitiv bedeutend mehr. Es ist eben keine PC-Hardware und auch das PCI-Bussystem hat schon ordentlichen IO-Durchsatz. Ich kann eine interne Sicherung auf LTO mit durchschnittlich 25MB/s laufen lassen und gleichzeitig über beide Netze mit ordentlichem Durchsatz (jeweils ca. 6-7MB/s) nfs Server nach /dev/null absaugen. Dabei bleiben dann immernoch ca. 10-20% CPU idle.

robi
 
OP
A

aerosol

Newbie
robi schrieb:
Ich habe das mal mit einem meiner ähnlichen Server versucht nachzustellen.
2*PentiumIII 933MHZ
2GB RAM
2*SCSI U160 Kontroller
2*LAN 10/100mb

Ich habe allerdings keinen Netapp Filer und kein Giga Netz aber es geht mit dieser Hardware definitiv bedeutend mehr. Es ist eben keine PC-Hardware und auch das PCI-Bussystem hat schon ordentlichen IO-Durchsatz. Ich kann eine interne Sicherung auf LTO mit durchschnittlich 25MB/s laufen lassen und gleichzeitig über beide Netze mit ordentlichem Durchsatz (jeweils ca. 6-7MB/s) nfs Server nach /dev/null absaugen. Dabei bleiben dann immernoch ca. 10-20% CPU idle.

robi

Bei was für ner Art von Daten hast du diese 6-7/MB/s hinbekommen? bei wenigen großen (was ja auch kein Problem bei mir darstellt) oder mit vielen kleinen in vielen unterordnern (Was ja mein eigentliches Problem ist!) ?
 
A

Anonymous

Gast
aerosol schrieb:
Bei was für ner Art von Daten hast du diese 6-7/MB/s hinbekommen?
Das waren ganz normale PC bei denen ich die Homeverzeichnisse mal über nfs freigegeben habe, da war nicht mehr Datendurchsatz möglich, aber auch hdparm kann von diesen Platten nicht wesentlich schneller lesen.

Aber was mir noch eingefallen ist, eventuell ist auch tar die Bremse.
Such mal einen Verzeichnisbaum mit so vielen kleinen Dateien und pack die mal auf deinem Backupserver zu einem Archiv und vergleich das mal mit einem Verzeichnisbaum mit "normal großen" Dateien auch vom Filer.
Dann diese Verzeichnisbäume rüber auf deinen Backupserver kopieren und auch dort mal einen test mit tar machen. Es ist möglich, das tar bei so vielen kleinen Dateien schon von sich aus sehr viel mehr Zeit braucht, um die selbe Datenmenge zu verarbeiten.

robi
 
OP
A

aerosol

Newbie
ich hab nun nochmal versucht den Filer per iSCSI anzusteueren, um somit eine höhere Transferrate zu erziehlen, allerdings kam genau das gleiche dabei heraus :(

Muss man sich evtl einfach damit anbfinden, das viele kleine Dateien einfach nicht schneller zu kopieren sind?

ps: das mit dem tar versuche ich jetzt nochmal lokal und auf dem Filer.. evtl gibt es da ja unterschiede...
 
OP
A

aerosol

Newbie
Datenserver = NetApp Filer
Dateisystem = reiserfs?!

Backupsevrer = XFS
allerdings wird vom Filer direkt in den RAM des Backupsservers egschrieben und von da weiter zum Band...

Wobei die Geschwindigkeit gleich langsam ist, als wenn ichs aufs lokale xfs schreibe
 
Oben